
我在一个新的对话窗口 投喂了一些相关资料,主要是关于股票类方面的。 一开始用着挺好不过用了两三天,开始出现幻觉 驴唇不对马嘴 对牛弹琴似的。 大家有这种情况么? 目前是 pro 版本
1 BeijingBaby 4 天前 都出现过,gemini ,豆包等,偶尔都会忘记上下文,乱说一通,得人为「纠正」。 |
2 haimall 4 天前 对话模式,不太适合知识库的用法。 |
3 crownz OP @BeijingBaby 看来是通病哈 |
4 crownz OP notebooklm 更好一点么? |
5 haimall 4 天前 notebooklm notion 可能更优,然而 notebooklm 现在可以喂给 Gemini 啊 |
6 haimall 4 天前 |
7 gpt5 4 天前 对话巨长的时候,我还碰到过回答错位的情况,就是每次回答不是本次而是上次或上上次的问题。我问 gemini ,他说确实可能出现这种问题,最好再开一个对话。 |
8 haiku 4 天前 via Android Gemini 网页版,上下文窗口比模型支持的最大窗口小很多,付费版好一些 都是为了降本 |
9 taohua1c 4 天前 别一直用一个窗口,我都是一个问题一个窗口 定时清理就好了 |
10 yarkyaonj 4 天前 是因为你开了其他窗口问了别的问题吧,现在好像会参考你问过所有的问题,在设置里面可以关闭的,叫 Your past chats with Gemini |
11 locoz 4 天前 Gemini 的模型特性就是这样的,Ultra 会员的 Gemini 3 Pro 都救不了,无论是网页版还是其他地方的都这样。虽然它能支持极长的上下文,但它在上下文真正长了之后,注意力是不集中的,很容易就会出现丢三落四的情况。并且虽然你针对问之前的细节它能跟你说出来,但下一次对话只要还是上下文过长的状态,它就还是会遗漏之前说过的东西。 |
12 maichael 4 天前 用啥本质上都是一样的,因为上下文有大小限制+上下文越大注意力就越难以集中。 好的做法是预设一个基本的上下文(包括必要的限制、规则以及一些引导/案例等),每次以这个预设上下文开始做一件新的事情,让上下文尽可能短且有价值。 |
13 qieqie 4 天前 感觉 ai studio 里的才是满血版,网页 app 和 antigravity 里的 pro 不太聪明(限制了 reasoning level ),antigravity 里最近频频出现思考内容输出到 content 里,还有 AI 无法自己结束对话的问题。 |
14 aero99 4 天前 是的,而且是自相矛盾,以前 AI 还会认错,现在只有狡辩 现在最好的办法就是几个 AI 一起用,互相比照 |
15 lneoi 4 天前 上下文太多了吧,一多就上下文就得处理,处理下肯定有信息漏掉或者出现偏差了 |
16 Hasel 4 天前 上下文太多,被压缩了。压缩时候是有损,某些核心信息可能在压缩过程中会丢失。 |
17 elevioux 4 天前 这个叫做 context rot ,就是上下文越长(对话越长),AI 的回答质量越差,现阶段所有 AI 都有的通病。 所以要每个话题新开一个窗口,所以才要做上下文工程,所以才会有各种 agent 出现。 |
18 hammy 4 天前 遇到过 |
19 notwaste 4 天前 via iPhone 大家都在说上下文长度的问题,容易这个有没有一个标准,什么程度即使没达到模型上下文限制,也算上下文超标了 |
20 kloge 4 天前 gemini 尤其明显 |
21 COW 4 天前 agent 我是一个 session 只解决一个任务。 ask 我是在单独的 session 里问,问完就删,或者直接网页版。 |
22 thevita 3 天前 这些模型支持长上下文窗口多少都用了一些 Sliding Window, Chunked Window 之类的稀疏化技术,不然成本遭不住啊, 而且超长上下文的能力也不完全算原生的,一般都是 train short, test long, 没有那么多超长的训练语料, 这个过程也都可能带来损失 再从信息本身来讲,每个 head 的维度固定,但 attention 会加权所有的前文 token 的信息进来,应该也是存在信息瓶颈的(这纯粹是我自己瞎说的) |
23 zpxshl 3 天前 via Android 所有大模型都一样,gemini 尤其严重 |
24 geminikingfall 3 天前 gemini3 的幻觉比较严重 |
25 Meursau1T 3 天前 Gemini3 的幻觉率一骑绝尘: deepseek-ai/DeepSeek-V3.2 6.3 % deepseek-ai/DeepSeek-R1 11.3 % google/gemini-3-flash-preview 13.5 % google/gemini-3-pro-preview 13.6 % 来源: https://github.com/vectara/hallucination-leaderboard |
26 frankies 3 天前 gemini 是稀疏 token ,上下文一多一定会胡说八道。解决办法:一个问题开一个对话,设置里关闭记录历史数据。 |
27 lscho 3 天前 via Android 现在 ai 编辑器都会显示当前对话上下文使用了多少,超了之后就乱了 |
29 3img 3 天前 gpt 只会拍马屁了 |
30 jqknono 3 天前 这是 llm 的召回率测试: https://fiction.live/stories/Fiction-liveBench-September-29-2025/oQdzQvKHw8JyXbN87 上下文窗口不是越大越好, 应尊重前提能记住. |
31 importmeta 3 天前 调用过接口我才知道,他们内部保留上下文都有一个限度的。 |
32 Stoney 3 天前 via iPhone 确实是,后面发的图片根本就不知道是什么图了,会拿之前发的图片分析一通 |
33 FengMubai 3 天前 Gemini 3 注意力非常涣散 |
34 Clancy1024 3 天前 via Android @qieqie 是这样的,之前有大佬套过 Gemini APP 中的 prompt ,Google 利用 prompt 降智(引导 Gemini 尽可能缩短思考链且对自己的回复“变得自信”;哪怕是 Google One 会员也一样) aistudio 几乎是满血版,api 绝大多数时候是满血 |
35 AoEiuV020JP 3 天前 很正常,所有模型上下文极限都不大,能无限聊天肯定是有压缩对话历史,每次压缩都会降智忘事, |
37 pety 3 天前 和 lz 一样,用来做股票研究,一样的问题。 不知 lz 使用时,会不会用的一些提示词?有没有相关的提示词可以分享 |
38 linkopeneyes 3 天前 对话我一个对话窗口只会问一个问题,下一个问题就开新窗口问 |
39 whyso 3 天前 ai 的通病,虽然有的可以压缩前面的对话,但是效果还是会打折扣 |
40 LPJD 3 天前 连续对话,每次对话都会把之前所有聊天记录拼接到一块然后发送出去。一次对话大概 500 字,100 次对话之后,就是 5 万字了,每说一句话,就会发送 5 万字。超了 AI 记忆容量,就会丢掉旧的对话记录 |
41 lancelock 3 天前 ai 就这样 |
42 tiezlk443 3 天前 更像人了有遗忘的 |
43 zjl03505 3 天前 甚至会出现对话截断,不催 事情做一半说要想想就不回复了 |
44 hafuhafu 2 天前 超出上下文了呀。你在同一个会话里连续问答,实际上每次推理都会带上之前的全部聊天记录。几轮后就用掉很多上下文了,上下文窗口滑动了,前面的信息就丢掉了,有可能只有被截断的记录,自然会牛头不对马嘴。而且浪费 token 。 一般一个问题有长篇的回答,问个几轮就差不多了。别的问题应该让他总结精炼后换下一个会话里问。 |
45 wsbqdyhm 2 天前 gemin 新出了一个 Gem 功能,是不是就是针对这个问题进行优化的? |