各位佬,大家好,我们现在需要在一个隔离环境下搭建一个带有类copilot、codegeex的环境。我现在使用ollama建立了离线大模型运行环境,可以跑多个代码类大模型,又使用continue插件为VScode和Jetbrains开发工具建立了代码补全。但感觉continue不如codegpt功能全面,想更换codegpt,但codegpt安装完成后,当api切换到ollama模式后,无法进行代码补全。我想问的是,是codegpt在ollama模式下本身就不支持代码补全,还是我设置的有问题,如果是前者,大家有没有更好的推荐,如果是后者大家有什么经验可以分享么
3 Likes
已解决,codegpt插件作者更新后,可以正常使用了
您好,我现在也在弄内网环境的代码补全工具,跟您遇到了同样的问题,请问您是如何解决的,谢谢
codegpt for jetbrains 2.6.3版本开始支持ollama服务的代码补全了。
What’s New
Added
- Support for Llama 3 model via llama.cpp port (#479)
- Code completion for “Custom OpenAI Service” (#476)
- Support for configuring llama.cpp server build parameters (#481)
- “Include file in context” to editor context menu (#475)
- Support for placeholders in the commit message system prompt (#458)
帮顶
1 Like
continue 支持第三方中转的api 进行补全吗,我没找到他这个功能
支持的,配置在那个json文件中
老哥,能说个简要的流程怎么搭建吗?或者给些链接学习一下么。
抱歉,最近有点忙,才看到留言。
具体的步骤有点多,我简单的描述一下核心步骤,您看是否能够满足您的要求。
Step 1 在联网计算机上安装Ollama,并pull大模型文件,如deepseek-coder-v2,coodegeex4等
Step 2 将Ollama安装到内网,并将大模型文件导入到内网,并启动Ollama
Step 3 在内网环境中安装continue(vscode、Jetbrains)或codegpt(vscode、Jetbrains)或llmcopilot(visual studio)
Step 4 在continue或codegpt或llmcopilot插件中设置ollama服务地址和相关参数
配置成功后即可进行代码补全、添加注释、解释代码等类copilot功能