如题,感觉 openCode go + omo 使用效果一般,而且 token 使用量耗费极大,一会儿就蹬没有了。
同样的提示语句:
codex一会儿就干完了,又快又对glm5.1+omo很慢还写错好几遍
各位老哥有什么技巧可以传授一下吗?opencode 相关的技巧都可以丢过来。
或者有没有 codex 20x 跟 claude 的中转不掺水的?

如题,感觉 openCode go + omo 使用效果一般,而且 token 使用量耗费极大,一会儿就蹬没有了。
同样的提示语句:
codex 一会儿就干完了,又快又对glm5.1 + omo 很慢还写错好几遍各位老哥有什么技巧可以传授一下吗?opencode 相关的技巧都可以丢过来。
或者有没有 codex 20x 跟 claude 的中转不掺水的?
1 LeviAkerman OP 而且中间还有时候使用 glm5.1 还 非常的卡。这个应该不是我的网络的问题吧 |
2 waityan 4 days ago 模型切换到 deepseek flash 试下 |
3 LeviAkerman OP @waityan 感觉 v4-pro 略微比 5.1 还差点。那 flash 岂不是更差一些。切 flash 确实快 |
4 Cloud9527 4 days ago omo 已经不用了,之前用这个感觉还不如不用。omo 好像对模型要求高吧 |
5 LeviAkerman OP @Cloud9527 是不是 omo 要用推荐的那些角色 对应的模型 ,比如 Oracle 那些,还是依赖 opus 跟 gpt5.5 |
6 Cloud9527 4 days ago @LeviAkerman #5 我理解也是那个意思,不用 opus 就发挥不出最大能力,不如卸载了试试。 |
7 LeviAkerman OP @Cloud9527 我卸载了再试试看看,这里面的模型除了 GLM5.1 还推荐哪个好用呢, 感觉好像都不是很好用 2333 |
8 Pitttttt 4 days ago 我也是用你的你这套,感觉还行啊? |
9 LeviAkerman OP @Pitttttt 是用 GLM5.1 然后 agent 默认用的 Sisyphus - ulw 嘛,难道是我的描述不行? 但是我确实觉得稍微有点慢,且还写错了几次 |
10 Pitttttt 4 days ago @LeviAkerman 我比你更差点,我用的 opencode+omo+deepseek v4 flash, 在 agents.md 中规定限制了各种规则,反正我现在写的还听顺的,还没出什么他解决不了的大问题。不过前期会花很多 token 在定规则和理解项目上 |
11 Pitttttt 4 days ago @LeviAkerman 我一般是用 /start-work 后面跟任务,让他先走计划再执行 |
12 xiaoz 4 days ago 没啥用,用了 omo 更慢,且效果没见明显提升,tokens 消耗倒是增长不少。 |
13 LeviAkerman OP @Pitttttt 我回来试试 |
14 LeviAkerman OP @xiaoz 是这样的,看别人都这么用,感觉没有想象中的好用♂ |
15 cookii 4 days ago via Android 感觉 omo 没用,又慢,效果又没啥提升,还不如自己根据实际情况写一点约束 |
16 jetsung 4 days ago omo 这个垃圾。已经弃了。这个 BUG 一个多月了,都没修改。我还以为我 opencode 配置出错了。结果就是它的原因。 https://github.com/code-yeongyu/oh-my-openagent/issues/3247 |
17 BestEicky 4 days ago 我之前也用 OMO ,但是我现在已经啥都不用了,已经回归 cli 本身了,直接用 plan 先沟通,然后再 build 编码,感觉又快又稳 |
18 heimoshuiyu 4 days ago omo 就是垃圾,异步 subagent 简直是瞎搞。很难想像我都烧几百 M tokens 了你还给我用字符串匹配的方式来做意图识别。原本一句话 -> grep -> read -> edit -> bash test 50k 上下文内就能改好的事情,硬生生开 4 个 subagent 上下文干到 150k ,我怀疑觉得 omo 好用的人根本没看 agent 的上下文里被 omo 塞了什么构思 |
20 Linioi 4 days ago @heimoshuiyu 赞同,omo 炒作产物,opencode 也挺垃圾的 |
21 xiaomushen 4 days ago 上下文的问题。GLM5.1 能力虽然不错,但 1. 上下文只有 200K 2. 超过 100K 后,容易丢失注意力 OMO 注入那么多东西给上下文,GLM5.1 早就不堪重负了 |
22 xiaomushen 4 days ago @heimoshuiyu 约束呗,说到底还是 opencode 没有太多兜底的东西 |
23 Maboroshii 4 days ago 直接用 opencode 就行了,除非是非常明确的工作流程,一般都不需要什么 skill 套件。 另外,我一直使用 opencode 套 codex 的订阅使用,感觉还挺好用的啊。 |
24 billzhuang 4 days ago 不要浪费有限的时间 |
25 shirakawatyu 4 days ago 不用怀疑,omo 就是不好用 |
26 kingfire 4 days ago via Android opencode 的 bug 太多了,我个人认为不如花点钱用 cc 或者 codex 省心 |
28 miaosl 4 days ago 我现在感觉也是满,上下文占的太快了,我是 codex 加国内模型,还凑合 |
31 xiaomushen 3 days ago @huaweii 害,细就细一些呗,最多花些时间。反正大家的时间并不宝贵,最终都会失业 |
32 ByteCat 3 days ago 用第一顺位的模型很好用,不要用 glm 之类的代替 opus ,效果差得多,一个天一个地,你需要稳定的 claude 和 gpt 渠道,就能爽用,omo 比裸用 opencode 效果好太多,已经交付了三个大型项目了 |
33 LeviAkerman OP @jetsung 啊这, 还有这种情况 |
34 LeviAkerman OP @heimoshuiyu 确实感觉比较小的需求其实直接 plan 就够了 |
35 LeviAkerman OP @kingfire 是的呢, 但是最近 cc 号被封了,有点不想折腾,codex 还在用 google play 续着 |
36 LeviAkerman OP @ByteCat 听起来是本质还是要依赖的模型强呢。我个人感觉也是,模型强力大砖飞, 甚至都不用怎么写描述都能理解我的意思 |
37 xsonglive491 3 days ago omo 就是不好用,不如 supperpower |
38 longaiwp 3 days ago @LeviAkerman 这些工具只是添加约束和工具,提升产出质量,最终的智能还是看模型。国产模型就 GLM 和 DeepSeek ,用 OpenCode 没什么大问题。 |
39 inhex 3 days ago 我的 OpenCode+ supperpowers 还挺好的 没用过 omo |
40 jukanntenn 3 days ago omo 里面各种 workflow 全靠作者想象和 vibe ,炫酷是炫酷,对模型有无增强反正不知道,没见过 benchmark 。用了一段时间弃用了。 |
42 iamnotcodinggod 3 days ago omo 毫无疑问是个 ai 小鬼开发出来的垃圾。作为一个掌控欲极强的人,我表示上一次带给我这种生理不适感觉的还是 openclaw 。 README 看了前两段就没有任何使用的欲望。其所谓安装,就是塞一个 md 给 agent ,然后让 agent 自己完成安装。恕我直言,任何 coding agent 都不适合这样做。因为现阶段模型/agent 不可能完全脱离人类控制。claude code + opus4.7 够好了吧,但是他的/statusline 也是自主 setup , 在我 archlinux 上面的 zsh 搞了一堆 bug ,丑的要命。 看似 agent 读了 md ,给你把东西装完了,功能都有了;但是回头一看,干了什么,完全不知道。最后还要费劲巴拉去看文档,去看源码,然后重新配置。 |