DeepSeek的联网搜索功能OpenWebUI有替代品吗?

DeepSeek联网搜索非常快能出30-40条搜索结果,我使用OpenWebUI的联网搜索配置google pse之后很久才能出3条搜索结果,有无能够接近DeepSeek搜索速度的替代方案?

能配置 searxng 吗?

同问sss

openwebui可以修改搜索引擎和结果数量和并发数量,在管理界面

我用这个一直报error searching ,很奇怪

需要正确配置语义向量模型

也就是说,搜索引擎是可以用的 ,但是我的语义引擎出现问题,导致无法使用吗?

正确配置语义向量模型是前提,是必要条件
这里配置:可以使用硅基里的,可以使用openai的,也可以使用默认的(注意要下载模型)

默认的性能要求高吗?我部署在小服务器上的

我部署在2c1g swap开1g,可以跑起来

还是比较推荐使用现成的,很便宜甚至免费:

  • 硅基:BAAI/bge-m3
  • OpenAI: text-embedding-3-small/large

好!谢谢!

还是要慢很多的。。。不知道将来会不会有直接本身支持联网搜索的模型,好像 kimi 的 api 可以?

Gemini 有,我现在改用带联网的 Gemini 模型了

佬,我问一下,使用硅基的话,也是选择openai吗,那个地址是填 cn结尾这个是吗?这样就不用下载了是吧,我注意到你的批处理大小是2048,默认是1,这个有讲究吗

使用默认的模型,下载是指:在服务器上本地运行一个嵌入模型。用其他的自然不用下载了。
使用硅基的嵌入模型,参考这个帖子的解决方案:Open WebUI中的语义向量模型引擎到底该怎么设置?求大佬教学

批处理大小和不同嵌入模型的能力有关,更多的批处理大小速度更快、质量更高。我目前只知道openai的模型最高支持到2048,你可以查阅更多资料学习一下

太慢了,没有实际使用价值

gemini在openwebui里怎么设置联网,我是用CF 把gemini转成openai的来用