本地无需 Docker 容器,OpenWebUI 一站式安装,小白也能轻装使用 Ollama 部署本地模型!

无需docker直接部署ollama,小白也能轻松玩转本地模型!

原教程地址:

小白教程 | 一步步跟着做即可

①下载并解压压缩包

https://r2u.newbefree.us.kg/OpenWenUI-0.4.7.7z

②设置环境变量 | 以 Win11 为例



》》新建三个环境变量

变量名、变量值分别为:

OLLAMA_HOST 
0.0.0.0
OLLAMA_MODELS
E:\Ollama(自定义模型保存位置,按照自身需求设置路径)
OLLAMA_ORIGINS
*

③ 安装 Ollama | 可以是压缩包自带的,也可以重新去官网下载最新版

》》安装完之后右键点击“Quit Ollama”退出 ollama 后再重新打开,这一步是为了保证前面设置的环境变量能百分百生效

④点击“一键安装Open-WebUI.bat”

⑤选择“重新安装Miniconda”

⑥以上完成后点击“启动Open-web-UI.bat”

⑦需要更新则点击“一键更新.bat”即可更新 OpenWebUI

先关闭网页端和 .bat 程序

OpenWebUI 小白使用教程

①管理模型:下载或删除

》》下载模型 | 以 deepseek-r1 14b为例


复制模型名称“ollama run deepseek-r1:14b”

》》方法一,直接在 openwebui 中直接下载


把“ollama run deepseek-r1:14b”复制到这里并点击下载即可

》》方法二,win+R 键,输入 cmd ,然后把“ollama run deepseek-r1:14b”复制进去回车即可直接下载

②调用本地 API

》》已经可以直接使用 | 不额外设置无需填写秘钥

调用地址为:

http://127.0.0.1:11434 百分百正确的调用地址

http://localhost:11434 一些工具能调用的地址


》》可额外设置秘钥

我作为一个小白,希望这篇小白文能真正从零基础小白的角度提供足够有用的帮助

Enjoy

41 个赞

感谢大佬教程!

1 个赞

感谢大佬分享

1 个赞

感谢大佬分享!!!

1 个赞

感谢分享

很好的小白向教程,再接再厉

感谢佬友

感谢大佬分享

如此详细友好的教程,真是前所未见,深度学习一下!
佬友码字辛苦,感谢!

PIP安装Open WebUI?

感谢大佬分享

真棒,不过现在习惯用cherrystudio了~~

小白多看看

有没有mac的教程 大佬

暂时没有

感谢大佬分享

感谢分享,这样的内容真的非常宝贵

感谢分享:+1: