使用默认的模型,下载是指:在服务器上本地运行一个嵌入模型。用其他的自然不用下载了。
使用硅基的嵌入模型,参考这个帖子的解决方案:Open WebUI中的语义向量模型引擎到底该怎么设置?求大佬教学
批处理大小和不同嵌入模型的能力有关,更多的批处理大小速度更快、质量更高。我目前只知道openai的模型最高支持到2048,你可以查阅更多资料学习一下
使用默认的模型,下载是指:在服务器上本地运行一个嵌入模型。用其他的自然不用下载了。
使用硅基的嵌入模型,参考这个帖子的解决方案:Open WebUI中的语义向量模型引擎到底该怎么设置?求大佬教学
批处理大小和不同嵌入模型的能力有关,更多的批处理大小速度更快、质量更高。我目前只知道openai的模型最高支持到2048,你可以查阅更多资料学习一下