请教各位大佬,因为公司性质,现在是纯内网办公。
可以使用光盘导入外网文件,现在使用ollama部署了一些本地大模型使用。
现在的问题是如何在code中使用ai代码提示?continue插件在加载本地大模型前的界面会卡在转圈,没办法配置。
15 Likes
最原始的复制粘贴
1 Like
自带笔记本接互联网呗
物理隔离的环境、进门前所有设备入柜
你这种保密环境还是研究内网的模型吧。。
也就只有continue插件了,响应慢可能是因为配置问题吧,gpu+更换模型StarCoder2-3B 或者deepseek 应该还可以
1 Like
不是响应慢,是在插件配置界面就转圈,导致我无法配置到本地的ollama大模型
那你应该尝试直接使用settings.json,直接进行配置,反正同一个效果。
1 Like
感谢 明天尝试
我也遇到Continue无法配置Ollama问题,它好像是不支持局域网的Ollama,只支持本机。所以后来我都没有用了。
这个需要开启局域网支持(lmstudio有选项,ollama不清楚),如果你输入的apibaseurl是127.0.0.1那必然不行,如果是192.168.0.1应该还是可以的吧,毕竟只是http协议。,还要排除防火墙影响
我是用 Ollama,开启了局域网支持,在客户端用AnythingLLM测试没问题,但是同样的客户机用Continue无论如何无法连上Ollama,后来看资料,很多说Continue只支持localhost的Ollama.
跑本地模型?
用类似override的工具
code我不知道,但是本地大模型我试过,不联网是可以本地使用ai提示的