12 Likes
真不建议……用cpu跑太慢了,内存也不太够用。
非要说的话,你可以试试 qwen2.5 1.5b 或gemma 2b
2 Likes
没显卡跑个啥?
3 Likes
建议用硅基流动
1 Like
不如嫖一个腾讯云的GPU服务器。
跑llama3
2 Likes
想多了,没gpu怎么跑,有了gpu你成本高了不如直接买 api
2 Likes
本地不太建议,性能要求很高,而且能力目前不太好,不如直接硅基流动,目前免费。
Gemma 2B
顶多跑跑3B的模型,但是CPU跑要卡好久才能回答问题,不太建议。
openbmb/MiniCPM-2B-dpo-int4
openbmb/MiniCPM-S-1B-sft
实际上很不建议