Termux启动Ollama一定要加上这个命令!
|
|
14
|
480
|
February 12, 2025
|
我做了一个 Ollama 模型仓库镜像站,帮你更快的从 ModelScope 魔搭拉取模型
|
|
6
|
505
|
February 10, 2025
|
各位大佬来秀秀肌肉
|
|
25
|
617
|
February 4, 2025
|
重磅发现:国产显卡也能跑Ollama了!
|
|
21
|
1008
|
January 28, 2025
|
16G显存跑 QwQ-32B-Preview 3bit 量化模型
|
|
7
|
791
|
December 9, 2024
|
ollama 0.4.0 预发布 新增llama3.2-vision
|
|
17
|
783
|
November 8, 2024
|
Ollama0.4最新正式版 - Meta Llama 3.2视觉模型11B和90B
|
|
7
|
698
|
November 8, 2024
|
Ollama本地启动Deepseek-coder-v2,配置continue插件在Vs Code上使用代码生成
|
|
32
|
1907
|
December 9, 2024
|
分享一个新发现!Hugging Face Hub 支持直接用 Ollama 跑 GGUF 模型!
|
|
19
|
1750
|
December 9, 2024
|
目前最好的开源翻译LLM是什么?
|
|
17
|
1327
|
December 9, 2024
|
ollama 0.3.12 支持llama3.2
|
|
9
|
352
|
December 9, 2024
|
ollama关于代码自动补全模型的选择
|
|
13
|
964
|
December 9, 2024
|
【已解决】怎么办!从ollama本地部署的Llama3.1 8B我问完一个问题后,突然语速变为2秒一个字
|
|
25
|
515
|
December 9, 2024
|
大佬们,有没有办法给intel mac 加速ollama 本地模型
|
|
7
|
335
|
December 9, 2024
|
Termux 运行 oLLaMA
|
|
31
|
948
|
December 9, 2024
|
使用docker部署ollama后如何修改并发数(已解决)
|
|
30
|
766
|
December 9, 2024
|
[ollama] 新版本 新模型
|
|
10
|
532
|
December 9, 2024
|
[ollama]发现gemma2模型
|
|
17
|
730
|
December 9, 2024
|
qwen2 模型已在ollama上看到了
|
|
23
|
977
|
December 9, 2024
|
一句话通过ollama调整llama3的中文回复
|
|
25
|
2865
|
December 9, 2024
|