Leon01
1
现在是构建一个强大的AI的最好时刻!
- deepseek V3发布,成本低、效果好
- V3模型在训练的时候融入了R1的推理能力。虽然模型本身不是推理模型,但是执行CoT的效果非常好
- Deepseek支持Prompt缓存,虽然CoT的系统提示词很长,但是缓存之后实际消耗的成本并不高
- Cherry Studio发布了基于RAG的知识库,实用等级再上一层
话不多说,开始构建!
第一步:去注册一个deepseek API和siliconflow(分别用于导入Deepseek-V3和Embedding模型)
https://platform.deepseek.com
第二步:下载Cherry Studio
导入对话模型
然后导入Deepseek模型(刚好官方提供的示例就是deepseek):
导入Embedding模型
最新的0.9.1版本支持了知识库。
关于知识库的具体配置,可以参考这里:
我用了硅基流动提供的Pro/BAAI/bge-m3
,效果还不错
第三步:导入CoT Prompt
在Cherry Studio里新建一个助理,在这里添加Prompt:
Prompt来源:
TIP:一般思考的过程会比较长,可以在Cherry Studio的设置中打开代码折叠,这样思考过程就不会占用过多版面了。
第四步:愉快玩耍!
1037 Likes
glacier
(我白起)
8
Pro/BAAI/bge-m3和BAAI/bge-m3差别大吗?
25 Likes
Leon01
10
这一点我可能讲得不是很清楚,主要是来源于论文的这段内容:
21 Likes
佬友,想问下,这个知识库,可以自己搭不,有没有相关的教程或者开源的代码,我想自己构建。 
20 Likes
Leon01
12
BAAI/bge-m3
默认是免费模型,可能有使用速率之类的限制(我也不太清楚)
Pro/BAAI/bge-m3
会消耗账户余额。不过我的赠额还很多,我就直接用Pro前缀的了
20 Likes
Leon01
15
有一个叫FastGPT的项目,似乎口碑还不错,不知道能不能满足你的需求,可以去看下~
23 Likes
Leon01
20
是的,导入到“助手-提示词”的位置。
虽然很长,但是因为deepseek官方的API提供缓存,命中缓存的话,成本并不会很高(虽然会占用一定的上下文长度)
25 Likes