今天买了台新PC,本地部署了Open WebUI+Ollama

用本地Docker,部署了OpenWebUI

同时跑了几个Ollama大模型

这样就可以在本地调教一些较敏感的以及担心泄密的内容。

44 个赞

进来学知识

12 个赞

进来看看电脑配置

14 个赞

想看看配置,结果没看到:smile:

11 个赞

也搞过,可能我的电脑不行,本地部署的大模型就是智障

12 个赞

模型回复速率怎么样

11 个赞

用自己电脑跑啊。。

10 个赞

啥配置?

9 个赞

啥配置参考一下

12 个赞


怎么还书签上了

15 个赞

我也想买一台,过年玩

16 个赞

最大也就9b ,普通电脑就可以

19 个赞

哈哈哈c

20 个赞

佬,请教个问题,本地跑数据分析和报告撰写,哪个模型得劲?

22 个赞

Llama 3 70B 我觉得最好!

22 个赞

谢谢。
70b。。。。。。欧。。。。。。。。no

20 个赞

这个是指 Llama 3.3 70B?能具体讲讲,和类似规模其它模型比,有什么优势吗?

18 个赞

进来看看配置

20 个赞

我用过的本地最大模型就Llama 3 70B,下面是模型的对比数据

21 个赞

这是录屏下来的,速度还不错
2025

18 个赞