本地部署DeepSeek V3,硬件成本90万?

https://www.deepseekv3.com/cn/blog/deepseek-deploy-guide?utm_source=chatgpt.com

18 个赞

Project DIGITS部署应该就能减小成本

可以纯cpu推理,内存够就行,ddr4内存便宜得很

1 个赞

不能gpu加内存吗,纯CPU效率太低了吧

ollama好像可以混合推理

1 个赞

一部分在gpu上面,一部分在内存,没有那么夸张。另外还有更新的量化技术,fp8可以更优。不过现在感觉r1更好玩一点。

unsloth/DeepSeek-V3-GGUF · HF Mirror 不同的量化模型尺寸急剧降低,最低版本的仅需要40g内存或者显存即可以运行。

相信gpt的回复不如去看看官方的部署文档或者指南,细心找找还是有硬件需求的。不过话说回来,参数量超过70B的大模型训练,部署等门槛已经不适合个人玩耍。不如api廉价稳定性价比高。

1 个赞

可以Mac mini M4 Pro堆叠,不用那么多。

纯 cpu ??? 一分钟能出一个 token 吗 :tieba_087:

1 个赞

AI推算就算量化后的模型也需要几十秒一个Token

一秒一个差不多

这需要什么CPU

这成本,只有大公司才能玩得转了

只要内存够,都可以,速度和cpu有关系

1 个赞

哪来这么快的cpu

90w??

个人用的话不用这么多