Deepseek本地搭建的硬件配置条件

网上找了一下,不同说法差好远诶



3070的应该装哪个版本,能跑7B/8B吗

4 个赞

勉强可以

1 个赞

tieba_026跑小模型干嘛呀

我 7900xtx 跑 32B 量化,大概吃了 21G 显存。具体可以看这篇文章,挺准的。GPU System Requirements for Running DeepSeek-R1

4 个赞

学习下。

I7-13700K + 64G RAM + 4070Ti 12G
跑R1-7B感觉还行
跑llama3.3-70B字蹦得很慢,显存吃完,内存50G,CPU50%,GPU15%

1 个赞

至少这个表是错的,量化模型不需要那么多显存,非量化的模型它又把所需显存说少了。
自己去huggingface看看模型文件大小就知道了

你按照参数算.
比如原来某个模型有 500b 参数, float32 精度,需要的空间就是 500×10的9次方
×4bytes=2000GB,要一个巨大的 gpu 集群才能跑起来。如果是 8b 参数,int4 精度,这样所需的空间只有 8 × 1 0的9次方 × 0.5 bytes = 4 GB,
在普通的电脑里也能跑起来。但实际上比这个计算出来的大小还要加一点常数。

3 个赞

满血671b 纯cpu内存也可以吧 使用intel Pmem

折腾一下给显卡找点活干 :bili_048:

内存足够大就行

使用llama mmap 配搭 raid ssd 不知可否对cpu内存降点 就是t/s更低

分享几个小tips:

  • 实测自己用4bit量化是最经济实惠的,ollama默认就是4bit量化
  • 如何计算显存?模型参数除以2就是4bit对应的显存大小,比如32B模型4bit量化后16GB,再乘以1.2用于kvcache临时变量等
  • 推理性价比之王(截至2025.2)是4090(单机)和H20(集群),实际上满血671一台H20足以,成本100w
  • 用cpu或者cpu/gpu混合推理是否可行?当然是可行的,很慢就是了(慢到想砸键盘)

综上,8GB显存(3070标准版)建议跑7b,极限点能跑14b(超短上下文)。

4 个赞

原来还能这么玩,那是要另外配置参数让模型只用cpu内存对吧

求看一下富哥部署满血版的电脑

我是缺那100w吗?我是缺高端显卡啊

——采访梁文锋

是3070桌面版本吗

对的zsbd

感谢科普! :xhs_014:


本地gpu玩玩就好了
混堆就是木桶效应(硬件中数据传输速度最慢的一方)
api/网页 体现更佳

1 个赞