低成本爽用 Claude Code: GPT-Load + CCR 方案 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
tbphp
V2EX    Claude

低成本爽用 Claude Code: GPT-Load + CCR 方案

  •  
  •   tbphp 131 天前 4515 次点击
    这是一个创建于 131 天前的主题,其中的信息可能已经有所发展或是发生改变。

    最近 Claude Code 可太火了,但是 Claude 成本又太高,那么我提供的这个方案可以尝试一下。

    直接上核心原理:就是这个方案可以支持任何渠道类型的大模型,不仅仅是 Claude 。然后再搞一批 Key ,组成 Key 池,使用轮询接入 Claude Code 。 至于 Key 池哪儿来,比如去 xx 收一点 gemini 的 key ,因为 gemii 每个项目 key 每天都有免费额度,那么整几十个就无忧使用 gemini-2.5-pro 了。还比如硅基搞活动的时候很多人搞了大量活动 Key ,组个硅基 Key 池,畅用 deepseek ,Qwen3-Coder 和 k2 模型。 还有其他各种渠道资源,就只能靠大家自己发掘了。

    下面就教你把 GPT-Load 接入 CCR ,使用自己的 Key 池爽用 Claude Code 。 (顺便推荐一下我的 GPT-Load 项目,有用就点个 Star 吧。)

    相关的项目:

    前提条件

    如果想知道 GPT-Load 如何部署,请查看帖子: https://s.v2ex.com/t/1146354 , 或者项目 README ,一键式部署。

    • 确保您已经成功部署并启动了 GPT-Load 服务。此贴以默认的地址 http://localhost:3001 和代理密钥 sk-123456 为例。(后面需要改成自己实际配置的代理密钥)
    • 已安装 Node.js 和 npm 。

    安装

    执行命令,安装 Claude Code 和 CCR 。

    npm install -g @anthropic-ai/claude-code npm install -g @musistudio/claude-code-router 

    配置

    配置文件: ~/.claude-code-router/config.json (如果没有就创建)

    配置内容示例:

    { "Providers": [ { "name": "gpt-load-openai", "api_base_url": "http://localhost:3001/proxy/openai/v1/chat/completions", "api_key": "sk-123456", "models": [ "gpt-4.1-mini", "gpt-4.1-nano" ] }, { "name": "gpt-load-gemini", "api_base_url": "http://localhost:3001/proxy/gemini/v1beta/models/", "api_key": "sk-123456", "models": [ "gemini-2.5-pro", "gemini-2.5-flash" ], "transformer": { "use": [ "gemini" ] } }, { "name": "gpt-load-gemini-openai", "api_base_url": "http://localhost:3001/proxy/gemini/v1beta/openai/chat/completions", "api_key": "sk-123456", "models": [ "gemini-2.5-pro", "gemini-2.5-flash" ] }, { "name": "gpt-load-anthropic", "api_base_url": "http://localhost:3001/proxy/anthropic/v1/messages", "api_key": "sk-123456", "models": [ "claude-sonnet-4-20250514", "claude-3-haiku-20240307" ], "transformer": { "use": [ "Anthropic" ] } } ], "Router": { "default": "gpt-load-gemini,gemini-2.5-pro", "background": "gpt-load-gemini,gemini-2.5-flash", "think": "gpt-load-gemini,gemini-2.5-pro", "longContext": "gpt-load-gemini,gemini-2.5-pro", "longContextThreshold": 60000, "webSearch": "gpt-load-gemini,gemini-2.5-flash" } } 

    说明:

    • 上面的 gpt-load-gemini-openai 渠道是 Gemini 的 OpenAI 兼容格式。
    • 记得把 http://localhost:3001,还有路径里面的分组名称(openai,gemini)换成自己的。
    • Providers 里面的渠道配置,根据自己 GPT-Load 的分组渠道自行调整。没有就删除。
    • sk-123456 密钥也要改成自己的代理密钥。
    • 还有个细节,anthropic 渠道里面的 transformer.use 值是:Anthropic,首字母一定要大写。
    • 模型也要根据自己的渠道配置,我只是写了几个官方默认的。
    • 最后重点,Router里面我默认配置了 gemini 的模型,你根据自己需求调整配置。

    总结:就是配置是参考,你可以参考这个格式,但是里面的内容要根据自己 GPT-Load 服务的具体情况调整。别直接复制进去用啊。

    使用

    CCR ! 启动!!!

    ccr code 

    GPT-Load 的官方文档也有更多的其他客户端的接入方式和一些细节,有需要直接查看 GPT-Load 官方文档 - 接入指南

    26 条回复    2025-08-07 12:50:16 +08:00
    keakon
        1
    keakon  
       131 天前
    Gemini 要弱很多,工具容易报错,做到一半经常放弃
    tbphp
        2
    tbphp  
    OP
       131 天前
    @keakon 可以试一下千问 code 模型,如果有资源的话。
    casatAway
        3
    casatAway  
       131 天前
    20 美元的 claude pro 够我用,平时代码量不大。还是用 sonnet 模型舒心
    headwindx
        4
    headwindx  
       131 天前
    编码上 sonnet 比 gpt 还是强太多了,不能只看价格,还得看产出效率。便宜不出活,好比大学毕业生免费为你实习,但就是完成不了你的任务,你还得训练它。
    tbphp
        5
    tbphp  
    OP
       131 天前
    @headwindx 是的,不过每个人都有不同的需求,多给一种选择方案。
    slowgen
        6
    slowgen  
       130 天前
    比较折腾而且和模型要适配,我测了 Claude Code 结合本地的 GLM-4.5-Air 、Qwen3-235B-A22B-Instruct-2507 、Qwen3-Coder-30B-A3B-Instruct ,经常会消耗了几十 K 的 token 但是活都没开始干,不能一个 prompt 就让它“自己动”完成所有事情,连把大模型给的代码写入文件都做不好,同样的 prompt 丢到 Roo Code 就不同了,结合上面几个本地跑的模型完成度非常高,人工干预极少
    tbphp
        7
    tbphp  
    OP
       130 天前
    @shuimugan
    嗯,我也是 gemini 轮询 Key + roo code 。确实效果很好,而且精准。

    也不能说是 claude code 做得不好,可能是模型适配度的问题吧。
    tbphp
        8
    tbphp  
    OP
       130 天前
    @h272377502
    claude pro 只有兑换模式,没有 api 吧。对话肯定完全够用,只是很多场景还是直接调用 api 方便一点。
    issakchill
        9
    issakchill  
       130 天前
    @shuimugan 同感 gemini+roo 比 gemini cli 用起来好太多了
    tbphp
        10
    tbphp  
    OP
       130 天前
    @issakchill
    我也是这套方案,roo+gemini 确实好用。

    如果有多 Key 的话,使用 gpt-load 搞个轮询,接入 roo-code 就可以无限使用了,不用担心 tokens 消耗。
    casatAway
        11
    casatAway  
       130 天前
    @tbphp 用 clove 转一下就就是 api 了
    maximdx
        12
    maximdx  
       130 天前
    月之暗面 k2 直接买其实也还好吧
    asd999cxcx
        13
    asd999cxcx  
       130 天前
    我最近遇到一个问题:ccr 发起一次对话,完成了一个任务,这个任务执行完了扣了魔搭很多次额度,这是为什么?
    tbphp
        14
    tbphp  
    OP
       130 天前
    @asd999cxcx
    cc 的用量大吧
    hahahasnoopy
        15
    hahahasnoopy  
       130 天前
    穷人直接用 qwen-coder 好了,我在用。使用的是 modelscope 的免费次数,基本上够用了,而且个人感觉逻辑上比 gemini 要好
    asd999cxcx
        16
    asd999cxcx  
       130 天前
    @tbphp
    Total cost: $0.0004 (costs may be inaccurate due to usage of unknown models)
    Total duration (API): 4m 27.2s
    Total duration (wall): 26m 19.9s
    Total code changes: 130 lines added, 8 lines removed
    Usage by model:
    claude-3-5-haiku: 3 input, 3 output, 0 cache read, 0 cache write
    Qwen/Qwen3-Coder-480B-A35B-Instruct: 19 input, 19 output, 0 cache read, 0 cache write
    这是那次对话的统计
    myderr
        17
    myderr  
       130 天前
    感谢,用上了,非常爽,就是可以粘贴图片吗,有些场景我想直接发图片给他
    tbphp
        18
    tbphp  
    OP
       130 天前
    @asd999cxcx
    是因为一次对话过程中,cc 会进行多次 api 调用以处理不同的任务。并不是一次对话就只调用一次 API 哦。
    tbphp
        19
    tbphp  
    OP
       130 天前
    @myderr 可以直接 ctrl + c 复制图片,然后去兑换终端里面,直接 ctrl +v 。
    mac 是 cmd +c ,cmd +v
    myderr
        20
    myderr  
       130 天前
    @tbphp #19 我就是这样使用的,发现没任何反应,所以我再来问的,模型 Router 我使用的就是你的这个,所以肯定也不是模型不支持图片
    tbphp
        21
    tbphp  
    OP
       130 天前
    @myderr 我确实可以啊,粘贴成功,对话框里面就会显示类似`[Image #1]`的文字。
    如果不能复制,那你尝试使用 @命令,把图片的路径 @进去试一下呢。
    Dreamerwwr
        22
    Dreamerwwr  
       129 天前
    抓到 T 佬了
    asd999cxcx
        23
    asd999cxcx  
       129 天前
    @tbphp 原来是这样,我还以为他和 cursor 之类的一样,一次对话只算一次调用,他这个是只有 cc 这样吗还是其他 agent 用 API 调用模式都会这样?
    crytis
        24
    crytis  
       129 天前
    @hahahasnoopy modelscope 的 qwen 总是报Invalid tool parameter ,还有啥能白嫖的
    tbphp
        25
    tbphp  
    OP
       129 天前
    cursor 一次对话也是会调用多次 API ,只是他的判断为一次任务来扣除次数。
    你可以理解为 cursor 是按照对话次数计算,而不是 API 请求次数。
    tbphp
        26
    tbphp  
    OP
       129 天前 via iPhone
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     1144 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 30ms UTC 17:00 PVG 01:00 LAX 09:00 JFK 12:00
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86