lobechat用硅基流动的嵌入模型进行知识库向量化

最近在用lobechat的知识库功能,遇到向量化的问题,一开始用的是GitHub的text-embedding-3-small,但是有限额,免费用户每天只能请求150次。就想着能不能换个平台/模型。就看了一下硅基的模型,有嵌入模型BAAI/bge-m3,还是免费的,不愧是硅基大善人。
然后就看了一下lobechat的文档

(支持的模型提供商:zhipu/github/openai/bedrock/ollama)
嗯,不支持硅基流动。但是想起来硅基流动是兼容openai的api的
那也许可以,就在环境变量里添加了

DEFAULT_FILES_CONFIG=embedding_model=openai/BAAI/bge-m3
OPENAI_API_KEY=sk-XXXXXXXXXXXXXXXXXXXXXX(硅基的key)
OPENAI_PROXY_URL=https://api.siliconflow.com/v1

确实可以成功向量化,速度也比GitHub的text-embedding-3-small快得多。
就是不知道效果哪个更好。
因为我不用openai作为ai提供商,所以不知道这样写环境变量会不会对聊天用的openai造成影响。
佬友们可以参考一下。

21 个赞

差不多的,曾经一度bge登顶词嵌入; 这个你也可以自己用本地ollama做嵌入的

1 个赞

我我把硅基的模型转到new-api里,也可以这样用

2 个赞

奇了怪了,同样配置向量化就失败,但硅基那边有使用日志

1 个赞

失败提示啥

确实ollama也可以,但是硅基比我本地跑快的 :joy_cat:

佬,这是什么错误? @Arvin_Xu
这是我填写的

当我在知识库分块的时候,发现他的endpoint还是我new-api的base url。。。

有点怪…这个得等后面确认下了,环境变量这个功能是社区小伙伴做的

佬,如果想用GitHub的是不是要有学生包?

我刚刚测了一下,是不是在ai服务商里进行的设定会覆盖环境变量
因为我没用openai,所以没有受到影响。
尝试在openai服务商里随便写了个错误的key,然后运行向量化,失败了,提示"errorType":“InvalidProviderAPIKey”

啊?我是 Github 付费会员,不太清楚 :clown_face:

1 个赞

有可能我正想要尝试。

1 个赞

这里有讲不同的版本的限额,免费版有些模型不能用。
除非开到商业版或者企业版,不然免费和pro就只有模型能不能用的区别了
话说学生包带的copilot是pro版的吗

这个我也不太清楚,话说老哥你是用的免费版吗

免费版的 :joy_cat:
那个限额就只能用用来测试了

操场和免费 API 使用的速率限制旨在帮助你试验模型并开发 AI 应用程序。 准备好将应用程序引入生产环境后,可以使用付费 Azure 帐户中的令牌,而不是 GitHub personal access token。 不需要更改代码中的其他任何内容。

我测了ollama,openai确实都是一样的情况,只有把前端界面对应的供应商关闭,在环境变量中的embedding模型才能生效。

佬,请教一下,你的帖子帮我解决了向量化问题已经用上了。在此之前我的open api跟key都是用的论坛佬的aicnn的,貌似它的没有默认的嵌入模型,所以一直向量化失败。通过老哥提示我把open api跟key换成硅基的之后向量化成功,但是我有没有办法调用acinn的api呢,因为楼下有佬友提到问题(前端自定义定的open api会跟环境变量的冲突,也就是说还是只能用硅基里的模型(如果想用向量化)),所以想问下佬友有没有解决方案,这边我在找下acinn有没有支持的其他嵌入模型

或者我部署ollama的嵌入模型,然后open api继续用acinn的?

佬,发现一个问题,在环境变量中设置了ollma的url不生效,不能通过检查也不能回答问题,是不是因为只识别默认端口?前端手动输入url可以通过检测,但是模型还是不能选择接口里面的。




大佬,就是文本类的分块特别慢,向量化倒还行,这是为啥呢? 使用Vercel部署的, 是机器性能问题还是网络慢? 图片文件啥的用cf的R2都挺快