Docker一键安装命令
docker run -d --restart=always -v ollama:/root/.ollama -p 11434:11434 --name ollama mthreads/ollama
不过玩Ollama得提前安装MTT S80/S3000/S4000最新驱动和MT Container Toolkit,相应的链接我也贴在下方
docker run -d --restart=always -v ollama:/root/.ollama -p 11434:11434 --name ollama mthreads/ollama
不过玩Ollama得提前安装MTT S80/S3000/S4000最新驱动和MT Container Toolkit,相应的链接我也贴在下方
http://127.0.0.1:11434
,但WSL2不一样,填的应该是http://host.docker.internal:11434
。不过你要是玩得更高级一点,想随时随地使用本地部署的大模型,还可以把本地Ollama的API通过Cloudflare Tunnel内网穿透出去,接入在抱脸部署的Open WebUI也是可以的。这是什么卡?
摩尔线程MTT-S80
摩尔线程
摩尔线程,国产显卡,堆的料能有3060水平,但是驱动差太多了,实际玩游戏啥的只有1060水平。不过非游戏场景应该是能发挥出来他堆料的作用的
跑Qwen2.5 7B实测10Tokens/s,没完全跑出来,还有待优化
你有这种卡?
当时是入坑了
大佬爱国实锤,不过这卡倒也便宜,相对的。
想起来之前黑神话刚出来的时候这家的显卡都没法玩,过了几个月驱动更新了才勉强能运行
是走cuda转译功能,还是原生呢?
现在英特尔的卡也便宜是不是买个那个跑也行
摩尔的还得等啊,摩尔加油(•̀ᴗ•́)و̑̑
效率如何?
Ollama用cpu都能跑啊,主要是效率不同
有点乳摩尔了,去年国庆我入手的时候就是1650的水平了
s80最神秘的地方是走的cpu供电
主要是上游 llama.cpp支持了摩尔线程的GPU加速,很厉害。
另外llama.cpp也支持华为的NPU,不过个人用户应该搞不太到
可以研究研究了
原生的吧!毕竟到现在还搞转译的话,那公司肯定要被英伟达起诉到破产了
哇噻,可以诶