本地跑大模型的话,电脑需要啥配置啊?有没有大佬推荐一下详细配置
这要看你跑的大模型是什么了欸
这太宽泛了。
从 人工智能 到 快问快答
什么模型?
输出速度与配置成正比。
显存要够大,没16g跑不了规模比较大的
这种问题不提预算直接拉满
图便宜,搞个4060TI 16G版本就行了
From 快问快答 to 开发调优