Claude Code 接入 Gemini 1M 上下文爽用!

直接贴链接: GitHub - BeehiveInnovations/zen-mcp-server: The power of Claude Code + [Gemini / OpenAI / Grok / OpenRouter / Ollama / Custom Model / All Of The Above] working as one.

这个项目太强了 感谢作者!


这段时间 L 站看到大家在吹 CC,开了个 Claude Pro 体验了确实感觉比 cursor 之流丝滑,美中不足就是 token 太短了,现在终于上下文自由了!

不用天天看见官方 CC 的那个 Context left until auto-compact 提示了 :smiling_face_with_tear:

另外如果有佬有稳定便宜的 gemini 2.5 pro key 的话求分享呀


补充
如果使用的是第三方 API 的 Gemini 2.5 Pro,还需要修改 zen-mcp-server/conf/custom_models.json,添加类似下面的配置(不然的话 zen-mcp 会默认只分配 32768 tokens):

    {
      "model_name": "gemini-2.5-pro",
      "aliases": ["custom/gemini-2.5-pro"], // aliases 不能和文件自带的 google/gemini-2.5-pro 配置中的一样 
      "context_window": 1048576,
      "supports_extended_thinking": true,
      "supports_json_mode": true,
      "supports_function_calling": true,
      "supports_images": true,
      "max_image_size_mb": 20.0,
      "supports_temperature": true,
      "temperature_constraint": "range",
      "is_custom": true,
      "description": "Gemini 2.5 Pro via third-party API"
    }

传送门

如果你想要让 Claude Code 完全使用 Gemini 而不用 Claude 的 API 或者订阅,移步:通过 API 免费使用 Claude Code 的小教程!

85 Likes

效果怎么样ww

2 Likes

感谢分享!

1 Like

看起来不错

1 Like

用下来跟 cc 官方好像基本没什么区别 (?
工具调用和 ide 联动都支持,至于模型体验的话得先深度体验一段时间才知道了 :innocent:

1 Like

大佬怎么开支付的老是被ban

1 Like

我用的 yeka

野卡一用claude code 后面就被ban

1 Like

那我就不太清楚了,我是前几天才订阅的 Pro, Google 新号

@soulbeats 來研究下怎麼用

你还没被ban有什么方法嘛

怎么用 哈哈哈

感谢分享 不错不错

食用方法很简单的呀,手把手步骤:

  1. npm install -g @anthropic-ai/claude-code (如果你还没装 cc)
  2. 安装 zen-mcp-server: GitHub - BeehiveInnovations/zen-mcp-server: The power of Claude Code + [Gemini / OpenAI / Grok / OpenRouter / Ollama / Custom Model / All Of The Above] working as one.
  3. 终端或者用任何编辑器打开 .env 文件
  4. 配置你的 api key: zen-mcp-server/docs/configuration.md at main · BeehiveInnovations/zen-mcp-server · GitHub
  5. 再运行一次 ./run-server.sh
  6. cd 到你任何想要聊的项目里面运行 claude
  7. enjoy~
16 Likes

接入这个后,最终在使用Gemini api工作吗,不然claude code的额度应该是不够用的

这个的意思就是将 claude code 的请求转发到 gemini api 哦,所以才有 1m 上下文

这么说也不对,应该是让 cc 通过 MCP 调 gemini 模型来“获得”更长的对话上下文

用不起claude pro

可以研究一下 GitHub - musistudio/claude-code-router: Use Claude Code as the foundation for coding infrastructure, allowing you to decide how to interact with the model while enjoying updates from Anthropic. 但是实际上体验可能会差很多,我试过发现不会调工具就放弃了

zen-mcp 这种 claude 官方 + 额外上下文的方式就好很多

我个人感觉相对于寻找更长的 context 的模型,还是尽量控制每个任务的 context 短更好,如果下个任务和上个任务没关系了,就果断关掉这个 session 开个新的

因为 LLM 都有 lost in middle 问题,你给它输入长长的输入,不代表都能记住,1M context 不代表能比 200k 同等质量记住 5 倍长的东西

而且控制变量地比较一下,同类的更长 context 的模型这个现象似乎也没啥特别大的改善

可以参考:[2307.03172] Lost in the Middle: How Language Models Use Long Contexts

不过已经过去两年了,说不定这个现象改善了


我个人体验是 claude 4 sonnet 目前的上下文是够用了,如果一个任务真的需要远大于 200k 的输入,我也不放心一次性交给 claude code 做(比如彻底重构一个项目?)

因为这样就完全 vibe coding 了,很容易堆屎山,还是人工拆成小任务再丢给它保险一点

3 Likes

没有订阅应该用不了code吧
这个是相当于Claude去调用其他模型
code能自定义Claude API嘛