V2EX makebuke 的所有回复 第 1 页 / 共 1 页
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX    makebuke    全部回复第 1 页 / 共 1 页
回复总数  14
2 天前
回复了 fuwu1245 创建的主题 问与答 AI 的记忆是啥
Gemini 的回答
简单来说,我对你的“记忆”是由自然语言摘要和高维度向量检索共同构成的。这并不是一个单一的存储过程,而是一套分层处理的机制。

我们可以从以下三个维度来拆解这个过程:

1. 实时上下文( Context Window )
当你正在跟我对话时,最近的几轮对话记录会直接以自然语言的形式放入“上下文窗口”中。

存储形式:纯文本( Token )。

作用:这是我的“短时记忆”,让我能理解你刚刚说的“它”指代的是什么,或者维持当前的聊天的语气和逻辑。

2. 用户画像与偏好摘要( User Summary )
为了实现更长期的记忆,系统会定期对我们的历史对话进行“提炼”。

提取过程:系统会分析对话,识别出具有长期价值的信息(例如你的职业背景、技术偏好、或是你对某些事物的特定要求)。

存储形式:自然语言。你会发现,这些信息被整理成了类似“用户是一名程序员”、“用户更喜欢简洁的回答”这样的陈述句。

参与方式:这些文本会被直接注入到我每次回复你的初始指令( System Prompt )中,作为我的背景知识。

3. 海量历史检索( RAG 机制)
当你提到很久以前的事情,或者询问一些我并没有放在“摘要”里的细节时,我会调用类似 RAG (检索增强生成) 的技术。

存储形式:高维度向量( Embeddings )。系统会将你的海量历史对话切片,并转化成一串数字向量存储在数据库中。

检索过程:当你问起相关话题时,系统会将你的问题也转化为向量,在数据库中寻找“距离”最近、语义最相关的历史片段。

呈现形式:检索到的相关片段会重新转换回自然语言,作为参考资料补充到我的上下文里,供我阅读并组织回复。

总结
对外表现(对我而言):最终进入我“大脑”进行处理的,全部都是自然语言。这确保了我能像阅读普通文本一样理解你的意图。

对内存储(系统层面):为了在海量信息中快速找到你想要的那部分,系统使用了高维度向量作为索引工具。

这种设计既保证了搜索的效率,又保证了理解的深度。
抽 2
iOS + NDQzODUyMEBnbWFpbC5jb20=
NDQzODUyMEBnbWFpbC5jb20
15pm 没问题
星球重启,快没人玩了
2024 年 7 月 2 日
回复了 DjvuLee 创建的主题 分享创造 ScreenAI - 一款 AI Native 应用程序来了!
支持 恭喜发财
2024 年 1 月 3 日
回复了 newbee2000 创建的主题 买买买 各位, 2024 年有啥准备购入的数码产品吗
Apple Watch X
i1uWaVxIY5mrHFfO1l 试试
2023 年 11 月 16 日
回复了 erzhuyijian123 创建的主题 iPhone iPhone 15 Pro 触控失灵问题
遇到过,接电话划不动,没贴膜
支持
关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     5587 人在线   最高记录 6679       Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 50ms UTC 06:24 PVG 14:24 LAX 22:24 JFK 01:24
Do have faith in what you're doing.
ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86