我在 MacOS 用 Docker 本地部署 Openwebui v0.6.0,使用硅基流动的 BAAI/bge-m3 作为嵌入模型。在知识库里面上传文件非常慢,136kb 的 txt 文件得转个几分钟才完成,90B 的 txt 文件也要五六秒。
但是用 Cherry studio,同样的嵌入模型,就算几百 kb txt、MB 级的 pdf 拖到知识库里 几秒钟就完成了。
想问下 这个巨大的时间差什么原因导致的?怎么优化 openwebui 的文档性能?
我在 MacOS 用 Docker 本地部署 Openwebui v0.6.0,使用硅基流动的 BAAI/bge-m3 作为嵌入模型。在知识库里面上传文件非常慢,136kb 的 txt 文件得转个几分钟才完成,90B 的 txt 文件也要五六秒。
但是用 Cherry studio,同样的嵌入模型,就算几百 kb txt、MB 级的 pdf 拖到知识库里 几秒钟就完成了。
想问下 这个巨大的时间差什么原因导致的?怎么优化 openwebui 的文档性能?
一直没理解他这个功能,不嵌入不检索怎么搞知识库/
知识库感觉还是自己部署个专门的更合适。
cherry studio 毕竟是本地客户端,文件上传和本地解析没有压力
哪个知识库产品可以连到openwebui和/或cherry studio使用吗?
关掉之后,文档是怎么被处理和使用?还会被embedding模型向量化吗?
fastgpt,dify,ragflow你都去了解一下,应该都可以
好的谢谢
owu的数据库残疾的,给我整半天发现原生问题