就是我有一台 MacBook Pro 主要是我的开发机器。我还有一台 Win 台式机。
- Mac 的配置是:M3 Max + 64G + 1T
- Win 的配置是:Ultra7 + 96G + 1T + 2T + 4T
我想部署一个本地的 Ollama 。我想部署在 Win 上,我应该怎么做? 哪位佬给建议下?
补充一下 Windows 是 华硕 tuf 4080s 显卡
就是我有一台 MacBook Pro 主要是我的开发机器。我还有一台 Win 台式机。
我想部署一个本地的 Ollama 。我想部署在 Win 上,我应该怎么做? 哪位佬给建议下?
补充一下 Windows 是 华硕 tuf 4080s 显卡
#快问快答添加
我倒是知道 Jetbrains 和 VSCode 可以用 Continue 作为插件,但 Zed 怎么搞?
在Windows下直接部署就行了啊
没gpu就别本地了
ollama可以用CPU的,速度还挺快的
是可以offload到cpu 但是你确定很快?
CPU都干到百分之九十几了,关键还是看你的配置。
他这芯片也不差啊,我i7-10代每秒10个token应该有,当然是7b模型,最新的llama3.3不是效果挺好的吗,兼具轻量化和性能
llama3.3是70b的 搞个4bit量化确实能玩玩 不过真没必要
那 mac 能远程用吗?
Win + R
,输入 cmd
,然后按回车,打开命令提示符。ollama pull llama3.1
注意:模型文件较大,请确保您的硬盘有足够的空间。
ollama list
有的,我的是4080s 显卡
你为啥不直接用mac安装呢,ollama也有mac版本
主要是 win 有显卡 哈哈哈哈
LM Studio这也是一个本地运行大模型的方案,配置要灵活一点。
Mac显存一体,应该更厉害吧。
好像缺点是不开源
这东西用的时候会不会 cpu 起飞? 如果是的话我还是放 win 好了,平常不打游戏的时候开着。
Mac技术过于先进,占用的只是你的硬盘空间而已,你的剩余内存全部可以当做显存来用,就凭这个可以甩Windows好几条街了。之前就有人用两台苹果笔记本跑4050亿参数的llama3.1 405B,换成是windows 10个4090显卡也跑不起来。