DeepSeek 本地部署配置清单

  1. 小型模型
  • DeepSeek-R1-1.5B
    CPU:最低 4 核
    内存:8GB+
    硬盘:256GB+(模型文件约 1.5-2GB)
    显卡:非必需(纯 CPU 推理)。
    适用场景:本地测试,自己电脑上可以配合 Ollama 轻松跑起来。
    预计费用:2000~5000。
  1. 中型模型
  • DeepSeek-R1-7B
    CPU:8 核+
    内存:16GB+
    硬盘:256GB+(模型文件约 4-5GB)
    显卡:推荐 8GB+ 显存(如 RTX 3070/4060)。
    适用场景:本地开发和测试,可以处理一些中等复杂度的自然语言处理任务,比如文本摘要、翻译、轻量级多轮对话系统等。
    预计费用:5000~10000。

  • DeepSeek-R1-8B
    CPU:8 核+
    内存:16GB+
    硬盘:256GB+(模型文件约 4-5GB)
    显卡:推荐 8GB+ 显存(如 RTX 3070/4060)。
    适用场景:适合需要更高精度的轻量级任务,比如代码生成、逻辑推理等。
    预计费用:5000~10000。

  1. 大型模型
  • DeepSeek-R1-14B
    CPU:12 核+
    内存:32GB+
    硬盘:256GB+
    显卡:16GB+ 显存(如 RTX 4090 或 A5000)。
    适用场景:适合企业级复杂任务,比如长文本理解与生成。
    预计费用:20000~30000。

  • DeepSeek-R1-32B
    CPU:16 核+
    内存:64GB+
    硬盘:256GB+
    显卡:24GB+ 显存(如 A100 40GB 或双卡 RTX 3090)。
    适用场景:适合高精度专业领域任务,比如多模态任务预处理。这些任务对硬件要求非常高,需要高端的 CPU 和显卡,适合预算充足的企业或研究机构使用。
    预计费用:40000~100000。

  1. 超大型模型
  • DeepSeek-R1-70B
    CPU:32 核+
    内存:128GB+
    硬盘:256GB+
    显卡:多卡并行(如 2x A100 80GB 或 4x RTX 4090)。
    适用场景:适合科研机构或大型企业进行高复杂度生成任务。
    预计费用:400000+。

  • DeepSeek-R1-671B
    CPU:64 核+
    内存:512GB+
    硬盘:512GB+
    显卡:多节点分布式训练(如 8x A100/H100)。
    适用场景:适合超大规模 AI 研究或通用人工智能(AGI)探索。

Source: https://mp.weixin.qq.com/s/dkMg_OHgma1HcPhIwhErmA

46 个赞

感谢分享

2 个赞

671B价格? :tieba_025:

4 个赞

1.5b配置要求哪有那么高,我在4G的小米6上都能跑起来

2 个赞

刚刚在B站看到个工作站,5w部署了671B的,输出4 t/s左右,无显卡部署

5 个赞

感谢分享

1 个赞

请问这些部署是否一定需要有外网,无法连接外网的服务器就没有可能部署了?感谢感谢!!!

1 个赞

仰望deepseek

1 个赞

这些都不考虑并发

1 个赞

模型下载要网络,你也可以通过其他方式拷贝,部署好了是可以不用联网的。

1 个赞

看来只能勉勉强强跑个7B了

1 个赞

DS 赶紧再卷卷啊,再降低下要求吧~ :tieba_028:

1 个赞

这应该是自己用的需求,并发估计就不太行了吧

1 个赞

鸡贼的没有公布32b和72b

2 个赞

感谢!这就让领导加钱

1 个赞

加钱加钱,必须整一个本地模型

1 个赞

1.5b上面为什么不是3b,因为3b在我们这吗 :bili_004:

1 个赞

4090可以部署32B,如果有64G内存可以部署70B

1 个赞

不连接外网可以部署的,离线下载ollama客户端并安装,然后模型也是离线下载到本地,最后通过命令加载就行了

2 个赞

分享在 mac的实测,在 mac m4pro 48g 的本子上, 用 ollama跑 32b 基本可用;跑 70b 大量占用交换空间,能跑起来不可用。 70b 想要能用 估计要 128g 的 m4 max 了。

2 个赞