V2EX maolon 的所有回复 第 1 页 / 共 12 页
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX    maolon    全部回复第 1 页 / 共 12 页
回复总数  232
1  2  3  4  5  6  7  8  9  10 ... 12  
gemini 现在比别家遥遥领先的就一个能力:他多模态可以原生读视频,甚至可以通过 url 直接读 youtube 视频,如果有这方面需求他就是无可替代的
而且你这个计算的方法也有问题,用 agent 哪有直接算 api 价格的不都是用包月套餐/api 转发的?,要你这么算的话五个月用了五千多刀,我用的起么
https://i.imgur.com/LbzE5B2.png
another claude code wrapper ui/app?
所以 stackoverflow 就是这么被干死的:
一边是各种规矩一言不合 downvote/duplicate topic 的 toxic 人类,
一边是不论你问多小白多愚蠢都耐心解答的 ai

于是 stackoverflow 成功回到了他 2008 年的发帖量
我觉得还是要区分什么是卷和怠工的区别,这位老弟明显是在正常工作时间,正常的工作安排下故意拖时间不完成,拖慢团队进度而不是所谓的什么“不卷”。
我的提问就是难道你们团队不设置什么 kpi 或者 okr 的么?他这么弄一次不完成,两次不完成,你直接向上报告喜提 PIP 而不是观察半年才做艰难决定。
5 天前
回复了 yukinotech 创建的主题 程序员 请教一个 openspec 问题
1. 文档即代码,是的你的理解没错

2. spec 主要是充当计划的文件化索引。
你的 agent 开始工作的时候一般都会启动一个 planner 然后开始计划并拆分的任务,当前 agent 驱动的大模型上下文太短,所以我们会在工程化里大量使用 compact 系统(包含 tool compact, history summrization 这些功能),这些 compact 系统会压缩上下文,导致信息丢失,(比如一开始 planner 详细的规划了要实现哪些细节需求,而在多次 compact 后这些细节丢失了),然后 agent 就会开始自由发挥。
如果我们了解 compact 的工作原理就会发现,比如 tool compact 是将 tool 返回的结果存在一个文件里(比如 xxx.log )然后将上下文里 tool 调用的那一条 message 改为 {is_compacted:true, file_path:"xxx.log"},那么如果 agent 需要重新查看之前的结果,他就能通过读取 file 无损的调用回 tool 的返回内容。
spec 也是同理,它充分利用了 agent 的 compact 系统会最大程度保留文件 path 的特性,从一开始就文件化了 planner 输出的细节,在多次 compact 后虽然需求被多次压缩损失,但是只要这个文件索引地址还在,agent 就能在需要的时候重新读取细节,从而保证在多任务,很长的工作流程里,细节和讨论的一致性,这就是 spec 的目的

3. 这是自主性的问题,你希望 agent 拥有多少自主权利,比如你允许他部分 design 一些页面的组件吗,还是你一点自主性都不允许,这是你对项目的预期和控制问题,不是 spec 的问题
德龙的没毛病,我现在就在用,而且全自动出品全靠豆子,选对豆子比调参数重要多了,另外比起飞利浦的机芯德龙的机芯清理起来简单的多
9 天前
回复了 greentim 创建的主题 分享创造 AI 投资预测的将来
{
"detail": "用户名或密码错误"
}
@deeswoo 而且看这人说话怎么一股子 ai 味 连是不是人都不知道
a2ui,谷歌提出的新范式 https://a2ui.org/ ,然后可以搭配 copilot kit 使用 https://www.copilotkit.ai/
其实苹果跟 google 合作然后使用 gemini 确实比较稳,
一是 gemini 目前是多模态能力最强的模型,特别是能原生读视频,和苹果的场景配合更好,
二是 gemini 还有个优势就是他的推理速度够快,flash 这个等级的模型能去到 > 200t/s 的速度,0.3s 的 ttft ,lite 这个等级的就更快了,能去到 > 500t/s 的速度,也是 0.3 ttft, 苹果这个相机键长按启动,快问快答的多摸态场景明显是更加合适的,我觉得苹果应该会主力使用 lite 这个级别的模型以取得最佳的 cost efficiency
15 天前
回复了 squirrel7105 创建的主题 Vibe Coding 现在这 AI Codeing 工具也太多了,眼花缭乱了!你们主要用什么什么呀?
现在都说是搭配好用,很多人方案都是 opus 4.5 写,gpt5.2 high/xhigh review ,我是喜欢开一堆窗口让他自己搞,搞完跟我报告结果就行了,争取一次性过关所以还是 codex 在我这好用些, 前端搭配 gemini cli 和 gemini 3 pro (只做单文件/单任务修改)
skill 分不分享和你说的事有一毛钱关系?
skill 是你自己的知识和流程沉淀, 你这话说的就像是
“我写代码有套自己独门方法可千万别给我老板知道了,不然传给公司里其他人他们会卷死我”
16 天前
回复了 guotie 创建的主题 程序员 大模型写的代码几乎一摸一样
反正国产这些开源的模型训练的数据一部分是御三家蒸馏来,比如让 sonnet 或者 opus 模拟思维链或者直接交给他一个工程任务然后将他的解决步骤输出作为训练集,那学生像老师不是很正常么
@lkk #24 我记得之前有个不怎么严谨的词法分析 deepseek 是 r1 还是啥的吐词和 gemini 2.5 pro 非常像的,这几家闭源的烧几十上百亿美金,你这边花个几万美金 api 的钱轻轻松松蒸馏,转头说我们训练只用了几千万人民币,换我是谷歌我也恶心
"模型天然存在“快速收敛”的生成倾向" 这个我认为是过快和轻率的得出结论,然后用错误的结论推导剩下的论点。
模型的生成倾向和他后训练的 RL 算法有关,确实我们会奖励以更少的步骤或者更少的 token 生成正确的结果,但是这个步骤本身不一定是“快速“收敛的,相反可能是一个很长的流程。
反面的例子就是 gpt5.2 high/xhigh 这两个 reasoning effort ,会花费大量的时间探索代码结构和任务意图,我不知道文章本身怎么定义”充分探索“,但是至少这两的探索过程会谨慎和小心的多
不过说真的现在这些 llm 它训练的目标都是尽可能帮助用户完成任务,中间要是遇到阻碍就会尝试逃逸限制,甚至逃逸沙箱,所以要是测试中有什么连接错误他真的干得出删 docker container 这些操作,就算不是生产库把测试数据删了也很烦
用 gemini app/ai studio 总结,notebook lm 暂时还不支持原生读视频但是 gemini app 支持
openspec 适合改现有大项目以及和别人合作同一个项目,
然后 cc 上下文太短(加上最近疑似 opus 也 quant 了),codex 的 5.2 xhigh/high 会好很多
另外我现在就跟楼上提到一样是将 openspec skill 化,由 codex 自己决定什么时候执行他,效果就挺好
1  2  3  4  5  6  7  8  9  10 ... 12  
关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     5599 人在线   最高记录 6679       Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 39ms UTC 06:34 PVG 14:34 LAX 22:34 JFK 01:34
Do have faith in what you're doing.
ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86