
最近 Claude Code 可太火了,但是 Claude 成本又太高,那么我提供的这个方案可以尝试一下。
直接上核心原理:就是这个方案可以支持任何渠道类型的大模型,不仅仅是 Claude 。然后再搞一批 Key ,组成 Key 池,使用轮询接入 Claude Code 。 至于 Key 池哪儿来,比如去 xx 收一点 gemini 的 key ,因为 gemii 每个项目 key 每天都有免费额度,那么整几十个就无忧使用 gemini-2.5-pro 了。还比如硅基搞活动的时候很多人搞了大量活动 Key ,组个硅基 Key 池,畅用 deepseek ,Qwen3-Coder 和 k2 模型。 还有其他各种渠道资源,就只能靠大家自己发掘了。
下面就教你把 GPT-Load 接入 CCR ,使用自己的 Key 池爽用 Claude Code 。 (顺便推荐一下我的 GPT-Load 项目,有用就点个 Star 吧。)
相关的项目:
如果想知道 GPT-Load 如何部署,请查看帖子: https://s.v2ex.com/t/1146354 , 或者项目 README ,一键式部署。
http://localhost:3001 和代理密钥 sk-123456 为例。(后面需要改成自己实际配置的代理密钥)执行命令,安装 Claude Code 和 CCR 。
npm install -g @anthropic-ai/claude-code npm install -g @musistudio/claude-code-router 配置文件: ~/.claude-code-router/config.json (如果没有就创建)
配置内容示例:
{ "Providers": [ { "name": "gpt-load-openai", "api_base_url": "http://localhost:3001/proxy/openai/v1/chat/completions", "api_key": "sk-123456", "models": [ "gpt-4.1-mini", "gpt-4.1-nano" ] }, { "name": "gpt-load-gemini", "api_base_url": "http://localhost:3001/proxy/gemini/v1beta/models/", "api_key": "sk-123456", "models": [ "gemini-2.5-pro", "gemini-2.5-flash" ], "transformer": { "use": [ "gemini" ] } }, { "name": "gpt-load-gemini-openai", "api_base_url": "http://localhost:3001/proxy/gemini/v1beta/openai/chat/completions", "api_key": "sk-123456", "models": [ "gemini-2.5-pro", "gemini-2.5-flash" ] }, { "name": "gpt-load-anthropic", "api_base_url": "http://localhost:3001/proxy/anthropic/v1/messages", "api_key": "sk-123456", "models": [ "claude-sonnet-4-20250514", "claude-3-haiku-20240307" ], "transformer": { "use": [ "Anthropic" ] } } ], "Router": { "default": "gpt-load-gemini,gemini-2.5-pro", "background": "gpt-load-gemini,gemini-2.5-flash", "think": "gpt-load-gemini,gemini-2.5-pro", "longContext": "gpt-load-gemini,gemini-2.5-pro", "longContextThreshold": 60000, "webSearch": "gpt-load-gemini,gemini-2.5-flash" } } 说明:
gpt-load-gemini-openai 渠道是 Gemini 的 OpenAI 兼容格式。http://localhost:3001,还有路径里面的分组名称(openai,gemini)换成自己的。Providers 里面的渠道配置,根据自己 GPT-Load 的分组渠道自行调整。没有就删除。sk-123456 密钥也要改成自己的代理密钥。Anthropic,首字母一定要大写。Router里面我默认配置了 gemini 的模型,你根据自己需求调整配置。总结:就是配置是参考,你可以参考这个格式,但是里面的内容要根据自己 GPT-Load 服务的具体情况调整。别直接复制进去用啊。
CCR ! 启动!!!
ccr code GPT-Load 的官方文档也有更多的其他客户端的接入方式和一些细节,有需要直接查看 GPT-Load 官方文档 - 接入指南。
1 keakon 131 天前 Gemini 要弱很多,工具容易报错,做到一半经常放弃 |
3 casatAway 131 天前 20 美元的 claude pro 够我用,平时代码量不大。还是用 sonnet 模型舒心 |
4 headwindx 131 天前 编码上 sonnet 比 gpt 还是强太多了,不能只看价格,还得看产出效率。便宜不出活,好比大学毕业生免费为你实习,但就是完成不了你的任务,你还得训练它。 |
6 slowgen 130 天前 比较折腾而且和模型要适配,我测了 Claude Code 结合本地的 GLM-4.5-Air 、Qwen3-235B-A22B-Instruct-2507 、Qwen3-Coder-30B-A3B-Instruct ,经常会消耗了几十 K 的 token 但是活都没开始干,不能一个 prompt 就让它“自己动”完成所有事情,连把大模型给的代码写入文件都做不好,同样的 prompt 丢到 Roo Code 就不同了,结合上面几个本地跑的模型完成度非常高,人工干预极少 |
7 tbphp OP |
8 tbphp OP @h272377502 claude pro 只有兑换模式,没有 api 吧。对话肯定完全够用,只是很多场景还是直接调用 api 方便一点。 |
9 issakchill 130 天前 @shuimugan 同感 gemini+roo 比 gemini cli 用起来好太多了 |
10 tbphp OP @issakchill 我也是这套方案,roo+gemini 确实好用。 如果有多 Key 的话,使用 gpt-load 搞个轮询,接入 roo-code 就可以无限使用了,不用担心 tokens 消耗。 |
12 maximdx 130 天前 月之暗面 k2 直接买其实也还好吧 |
13 asd999cxcx 130 天前 我最近遇到一个问题:ccr 发起一次对话,完成了一个任务,这个任务执行完了扣了魔搭很多次额度,这是为什么? |
14 tbphp OP @asd999cxcx cc 的用量大吧 |
15 hahahasnoopy 130 天前 穷人直接用 qwen-coder 好了,我在用。使用的是 modelscope 的免费次数,基本上够用了,而且个人感觉逻辑上比 gemini 要好 |
16 asd999cxcx 130 天前 @tbphp Total cost: $0.0004 (costs may be inaccurate due to usage of unknown models) Total duration (API): 4m 27.2s Total duration (wall): 26m 19.9s Total code changes: 130 lines added, 8 lines removed Usage by model: claude-3-5-haiku: 3 input, 3 output, 0 cache read, 0 cache write Qwen/Qwen3-Coder-480B-A35B-Instruct: 19 input, 19 output, 0 cache read, 0 cache write 这是那次对话的统计 |
17 myderr 130 天前 感谢,用上了,非常爽,就是可以粘贴图片吗,有些场景我想直接发图片给他 |
18 tbphp OP @asd999cxcx 是因为一次对话过程中,cc 会进行多次 api 调用以处理不同的任务。并不是一次对话就只调用一次 API 哦。 |
22 Dreamerwwr 129 天前 抓到 T 佬了 |
23 asd999cxcx 129 天前 @tbphp 原来是这样,我还以为他和 cursor 之类的一样,一次对话只算一次调用,他这个是只有 cc 这样吗还是其他 agent 用 API 调用模式都会这样? |
24 crytis 129 天前 @hahahasnoopy modelscope 的 qwen 总是报Invalid tool parameter ,还有啥能白嫖的 |
25 tbphp OP cursor 一次对话也是会调用多次 API ,只是他的判断为一次任务来扣除次数。 你可以理解为 cursor 是按照对话次数计算,而不是 API 请求次数。 |
26 tbphp OP |