ChaCha
(Cha)
1
直接贴链接: GitHub - BeehiveInnovations/zen-mcp-server: The power of Claude Code + [Gemini / OpenAI / Grok / OpenRouter / Ollama / Custom Model / All Of The Above] working as one.
这个项目太强了 感谢作者!
这段时间 L 站看到大家在吹 CC,开了个 Claude Pro 体验了确实感觉比 cursor 之流丝滑,美中不足就是 token 太短了,现在终于上下文自由了!
不用天天看见官方 CC 的那个 Context left until auto-compact 提示了 
另外如果有佬有稳定便宜的 gemini 2.5 pro key 的话求分享呀
补充
如果使用的是第三方 API 的 Gemini 2.5 Pro,还需要修改 zen-mcp-server/conf/custom_models.json,添加类似下面的配置(不然的话 zen-mcp 会默认只分配 32768 tokens):
{
"model_name": "gemini-2.5-pro",
"aliases": ["custom/gemini-2.5-pro"], // aliases 不能和文件自带的 google/gemini-2.5-pro 配置中的一样
"context_window": 1048576,
"supports_extended_thinking": true,
"supports_json_mode": true,
"supports_function_calling": true,
"supports_images": true,
"max_image_size_mb": 20.0,
"supports_temperature": true,
"temperature_constraint": "range",
"is_custom": true,
"description": "Gemini 2.5 Pro via third-party API"
}
传送门
如果你想要让 Claude Code 完全使用 Gemini 而不用 Claude 的 API 或者订阅,移步:通过 API 免费使用 Claude Code 的小教程!
85 Likes
ChaCha
(Cha)
5
用下来跟 cc 官方好像基本没什么区别 (?
工具调用和 ide 联动都支持,至于模型体验的话得先深度体验一段时间才知道了 
1 Like
ChaCha
(Cha)
9
那我就不太清楚了,我是前几天才订阅的 Pro, Google 新号
xieyang
(Mras)
15
接入这个后,最终在使用Gemini api工作吗,不然claude code的额度应该是不够用的
ChaCha
(Cha)
16
这个的意思就是将 claude code 的请求转发到 gemini api 哦,所以才有 1m 上下文
这么说也不对,应该是让 cc 通过 MCP 调 gemini 模型来“获得”更长的对话上下文
ChaCha
(Cha)
18
我个人感觉相对于寻找更长的 context 的模型,还是尽量控制每个任务的 context 短更好,如果下个任务和上个任务没关系了,就果断关掉这个 session 开个新的
因为 LLM 都有 lost in middle 问题,你给它输入长长的输入,不代表都能记住,1M context 不代表能比 200k 同等质量记住 5 倍长的东西
而且控制变量地比较一下,同类的更长 context 的模型这个现象似乎也没啥特别大的改善
可以参考:[2307.03172] Lost in the Middle: How Language Models Use Long Contexts
不过已经过去两年了,说不定这个现象改善了
我个人体验是 claude 4 sonnet 目前的上下文是够用了,如果一个任务真的需要远大于 200k 的输入,我也不放心一次性交给 claude code 做(比如彻底重构一个项目?)
因为这样就完全 vibe coding 了,很容易堆屎山,还是人工拆成小任务再丢给它保险一点
3 Likes
fable
(fablia)
20
没有订阅应该用不了code吧
这个是相当于Claude去调用其他模型
code能自定义Claude API嘛