Openwebui 和 Cherry Studio 的知识库功能

我在 MacOS 用 Docker 本地部署 Openwebui v0.6.0,使用硅基流动的 BAAI/bge-m3 作为嵌入模型。在知识库里面上传文件非常慢,136kb 的 txt 文件得转个几分钟才完成,90B 的 txt 文件也要五六秒。

但是用 Cherry studio,同样的嵌入模型,就算几百 kb txt、MB 级的 pdf 拖到知识库里 几秒钟就完成了。

想问下 这个巨大的时间差什么原因导致的?怎么优化 openwebui 的文档性能?

20 个赞

把 RAG 关掉试试?

1 个赞

一直没理解他这个功能,不嵌入不检索怎么搞知识库/

知识库感觉还是自己部署个专门的更合适。

cherry studio 毕竟是本地客户端,文件上传和本地解析没有压力

哪个知识库产品可以连到openwebui和/或cherry studio使用吗?

关掉之后,文档是怎么被处理和使用?还会被embedding模型向量化吗?

fastgpt,dify,ragflow你都去了解一下,应该都可以

1 个赞

好的谢谢

owu的数据库残疾的,给我整半天发现原生问题