土豪,我们公司两个4090审批了1个月服务器才下来
感谢大佬分享!
感谢大佬!
够呛能跑起来,即使跑起来应该卡的没办法用
671B 的 4bit 量化版,24GB 显存 + 382G 内存就能跑了
1 个赞
这个科普好啊! 不盲目追求72B的模型。
实测自家4090单卡可以用ollama部署32B的Q4_K_M量化蒸馏版,而且推理速度也非常快,显存总占用大约是21G左右
1 个赞
所以如何本地部署的教程呢,只是列出来需要什么配置
ollama run deepseek-r1:7b
感谢大佬
哇谢谢,这样对比很清晰
感谢大佬分享,清晰明了
这文章是AI生成的么,8B模型没必要用8-bit量化,671B“小时级”的速度又是什么鬼,还有其他问题就不一一列举了
感谢佬,刚好公司要拥抱AI
收藏了!
32B我部署了,速度和效果不如web版。
感谢分享,正好需要,公司也让研究了
个人玩家,部署低参数的版本没多大意义
mac m1 部署哪个版本?java开发
这里的最低硬件配置实际上是过剩的,作为推荐配置比较合适。
实测16G内存+6G显存跑7b/8b都很流畅。14b也能运行,但很卡。
详细配置如下:
CPU:AMD A8-7500
内存:DDR3-1600 8G x2
显卡:P106-100 6G
软件:Debian 12 + Ollama