Ollama其实是可以设置密钥鉴权的!
|
|
11
|
559
|
2025 年2 月 21 日
|
为 Ollama 添加 APIKEY 鉴权的最简单的方式,防止 Ollama 直接暴露在公网被滥用
|
|
4
|
295
|
2025 年2 月 15 日
|
Ollama跑的671B DeepSeek R1也会截断!
|
|
33
|
1275
|
2025 年2 月 13 日
|
炫耀一下Ollama跑671B DeepSeek R1(尤其是速度)
|
|
43
|
1322
|
2025 年2 月 12 日
|
扔两个Ollama
|
|
27
|
905
|
2025 年2 月 12 日
|
本地可以部署S1了!
|
|
11
|
662
|
2025 年2 月 11 日
|
请教关于ollama pull 降速的问题
|
|
10
|
931
|
2025 年2 月 8 日
|
求助: Ollma反复卸载/加载deepseek模型
|
|
16
|
434
|
2025 年2 月 7 日
|
来一个有deepseek70b的 Ollama
|
|
17
|
823
|
2025 年2 月 6 日
|
Ollama秀秀肌肉
|
|
5
|
433
|
2025 年2 月 5 日
|
Unsloth Dynamic (1.58Bit) 动态量化版本的 Deepseek V3/V2.5-1210
|
|
6
|
441
|
2025 年2 月 3 日
|
ollama 调试信息怎么打印
|
|
4
|
115
|
2025 年2 月 3 日
|
英特尔GPU运行Ollama教程
|
|
11
|
1075
|
2025 年2 月 1 日
|
今天买了台新PC,本地部署了Open WebUI+Ollama
|
|
107
|
2407
|
2025 年1 月 30 日
|
Termux跑DeepSeek 1.5b的模型有感
|
|
58
|
1754
|
2025 年1 月 26 日
|
旧手机变废为宝|五分钟安装Ollama跑开源大模型
|
|
44
|
1397
|
2025 年2 月 22 日
|
Open-WebUI 的部署报错解决
|
|
26
|
361
|
2025 年2 月 22 日
|
Docker执行Ollama命令教程
|
|
11
|
227
|
2025 年2 月 22 日
|
解锁PC运行OpenWebUI+Ollama手机使用模式
|
|
17
|
326
|
2025 年2 月 19 日
|
【已开源在GitHub】我上午开发的一个小工具:Ollama2OpenAI
|
|
10
|
458
|
2025 年2 月 17 日
|
Termux Ollama跑的Qwen2-VL太差劲了!
|
|
14
|
326
|
2025 年2 月 13 日
|
Termux启动Ollama一定要加上这个命令!
|
|
14
|
470
|
2025 年2 月 12 日
|
我做了一个 Ollama 模型仓库镜像站,帮你更快的从 ModelScope 魔搭拉取模型
|
|
6
|
443
|
2025 年2 月 10 日
|
各位大佬来秀秀肌肉
|
|
25
|
603
|
2025 年2 月 4 日
|
重磅发现:国产显卡也能跑Ollama了!
|
|
21
|
990
|
2025 年1 月 28 日
|
16G显存跑 QwQ-32B-Preview 3bit 量化模型
|
|
7
|
740
|
2024 年12 月 9 日
|
ollama 0.4.0 预发布 新增llama3.2-vision
|
|
17
|
781
|
2024 年11 月 8 日
|
Ollama0.4最新正式版 - Meta Llama 3.2视觉模型11B和90B
|
|
7
|
697
|
2024 年11 月 8 日
|
Ollama本地启动Deepseek-coder-v2,配置continue插件在Vs Code上使用代码生成
|
|
32
|
1883
|
2024 年12 月 9 日
|
分享一个新发现!Hugging Face Hub 支持直接用 Ollama 跑 GGUF 模型!
|
|
19
|
1724
|
2024 年12 月 9 日
|