不是,openwebui这个内存占比是不是有点离谱了

一个4G的服务器,部署了一个openwebui,运行内存直接要拉满了,这还是只聊天,不干别的情况下。


而且今天测试了一下上传文件功能,向量化那一步,直接宕机了好几次。太离谱了

5 个赞

你是不是顺带跑了个ollama?我2c2g的也没你这么多

2c1g申请出战,swap开了1g

没跑ollama,我全部是外部的api

1G是怎么做到的?我刚部署完,就占到快1G了,难道用的不是一个应用

1 个赞

向量化用的内置的还是外部api?内置是会吃内存的

向量化用的是硅基流动的

内网单独开个虚拟机给owu用,内存都直接拉满了

不行重装 :tieba_087:

我就用的官方docker部署最新版,只能说能用 :tieba_087:

真狠啊 一点不浪费

最新版好像有bug,有些模型用不了

1 个赞

你这个比我离谱多了

我一直用的4o,这个模型没啥问题

太可怕了

你这个咋这么大

不知道啊,我目前是v0.4.8,之前升级到v0.5,后来有bug,我就回退了

难道是内存泄漏了?

看来是偶发事件,重启之后降到20%了。不过内存占比过高这个太致命了,我最近几乎每天都要重启,不然直接宕机了

1panel别用这个,直接ssh连接服务器安装