关于本地部署DeepSeek-r1模型进行定制化训练的问题,想请教一些技术细节。我们公司计划开发一套智能问答系统,主要用于内部业务指南的自动化处理。考虑到数据安全性和定制化需求,我们希望在本地环境部署DeepSeek-r1模型。
具体而言,我们有以下疑问:
- 通过向模型提供高质量的领域特定数据,是否能够有效训练出符合公司业务需求的定制化模型?
- 在训练过程中所使用的技术是什么?
我们计划使用公司积累的高质量业务文档和知识库作为训练数据,期望最终模型能够准确理解和回答与公司业务相关的问题。
感谢各位大佬的宝贵时间和建议!
9 个赞
yk_chen
(yk chen)
6
建议基于DeepSeek-R1构建RAG,尽量不要训练
2 个赞
就我的理解 部署现有的模型不能训练 训练模型是另外一个方面可以搜搜
其他参考如下
komisch
(鲁树人)
9
这就是知识库的使用场景 我的感觉是搭建知识库不需要用推理模型,我用deepseek V3 跑出来效果不错 ,私有部署可能搞个千问的72b模型就够用
不会用到 671b ,只是 14b 或者 32b 这种能回答一些基本问题的,然后也能结合我们公司的业务知识
shuyu
12
求解,如果是知识库的需求,使用deepseek v3模型部署之后,怎么去喂模型知识呢,
komisch
(鲁树人)
14
V3私有部署成本可不是一点半点的 A100那样的计算卡没个十张八张的怕是不行
你先用fastgpt或者dify搭配硅基的API玩玩吧
这个问题问过deepseek,回答基本上说是难度非常高,最多是有这方面专业人员可以对模型做微调,最简单还是rag之类的。
我找到了一个开源项目貌似能解决我的问题,使用从外部知识库检索相关信息来辅助大语言模型生成更准确、更丰富的文本内容
1 个赞
myzr
(明月直入)
17
推理好像不用,堆个8台64G M4 pro mini就能起飞。
myzr
(明月直入)
22