今天买了台新PC,本地部署了Open WebUI+Ollama

用本地Docker,部署了OpenWebUI

同时跑了几个Ollama大模型

这样就可以在本地调教一些较敏感的以及担心泄密的内容。

44 Likes

进来学知识

12 Likes

进来看看电脑配置

14 Likes

想看看配置,结果没看到:smile:

11 Likes

也搞过,可能我的电脑不行,本地部署的大模型就是智障

12 Likes

模型回复速率怎么样

11 Likes

用自己电脑跑啊。。

10 Likes

啥配置?

9 Likes

啥配置参考一下

12 Likes


怎么还书签上了

15 Likes

我也想买一台,过年玩

16 Likes

最大也就9b ,普通电脑就可以

19 Likes

哈哈哈c

20 Likes

佬,请教个问题,本地跑数据分析和报告撰写,哪个模型得劲?

22 Likes

Llama 3 70B 我觉得最好!

22 Likes

谢谢。
70b。。。。。。欧。。。。。。。。no

20 Likes

这个是指 Llama 3.3 70B?能具体讲讲,和类似规模其它模型比,有什么优势吗?

18 Likes

进来看看配置

20 Likes

我用过的本地最大模型就Llama 3 70B,下面是模型的对比数据

21 Likes

这是录屏下来的,速度还不错
2025

18 Likes