为 Ollama 添加 APIKEY 鉴权的最简单的方式,防止 Ollama 直接暴露在公网被滥用
|
|
4
|
216
|
February 15, 2025
|
Ollama跑的671B DeepSeek R1也会截断!
|
|
33
|
1246
|
February 13, 2025
|
炫耀一下Ollama跑671B DeepSeek R1(尤其是速度)
|
|
43
|
1249
|
February 12, 2025
|
扔两个Ollama
|
|
27
|
882
|
February 12, 2025
|
本地可以部署S1了!
|
|
11
|
654
|
February 11, 2025
|
请教关于ollama pull 降速的问题
|
|
10
|
898
|
February 8, 2025
|
求助: Ollma反复卸载/加载deepseek模型
|
|
16
|
419
|
February 7, 2025
|
来一个有deepseek70b的 Ollama
|
|
17
|
811
|
February 6, 2025
|
Ollama秀秀肌肉
|
|
5
|
431
|
February 5, 2025
|
Unsloth Dynamic (1.58Bit) 动态量化版本的 Deepseek V3/V2.5-1210
|
|
6
|
406
|
February 3, 2025
|
ollama 调试信息怎么打印
|
|
4
|
109
|
February 3, 2025
|
英特尔GPU运行Ollama教程
|
|
11
|
1034
|
February 1, 2025
|
今天买了台新PC,本地部署了Open WebUI+Ollama
|
|
107
|
2370
|
January 30, 2025
|
Termux跑DeepSeek 1.5b的模型有感
|
|
58
|
1737
|
January 26, 2025
|
旧手机变废为宝|五分钟安装Ollama跑开源大模型
|
|
43
|
1381
|
January 23, 2025
|
Open-WebUI 的部署报错解决
|
|
25
|
341
|
January 23, 2025
|
Docker执行Ollama命令教程
|
|
10
|
226
|
January 23, 2025
|
解锁PC运行OpenWebUI+Ollama手机使用模式
|
|
16
|
309
|
January 20, 2025
|
【已开源在GitHub】我上午开发的一个小工具:Ollama2OpenAI
|
|
9
|
449
|
January 18, 2025
|
佬们我好像发现了一件神奇的事...
|
|
18
|
503
|
January 17, 2025
|
Termux Ollama跑的Qwen2-VL太差劲了!
|
|
14
|
321
|
February 13, 2025
|
Termux启动Ollama一定要加上这个命令!
|
|
14
|
464
|
February 12, 2025
|
我做了一个 Ollama 模型仓库镜像站,帮你更快的从 ModelScope 魔搭拉取模型
|
|
6
|
421
|
February 10, 2025
|
各位大佬来秀秀肌肉
|
|
25
|
595
|
February 4, 2025
|
重磅发现:国产显卡也能跑Ollama了!
|
|
21
|
971
|
January 28, 2025
|
16G显存跑 QwQ-32B-Preview 3bit 量化模型
|
|
7
|
735
|
December 9, 2024
|
ollama 0.4.0 预发布 新增llama3.2-vision
|
|
17
|
780
|
November 8, 2024
|
Ollama0.4最新正式版 - Meta Llama 3.2视觉模型11B和90B
|
|
7
|
694
|
November 8, 2024
|
Ollama本地启动Deepseek-coder-v2,配置continue插件在Vs Code上使用代码生成
|
|
32
|
1856
|
December 9, 2024
|
分享一个新发现!Hugging Face Hub 支持直接用 Ollama 跑 GGUF 模型!
|
|
19
|
1709
|
December 9, 2024
|