V2EX Taikyo
 Taikyo 最近的时间轴更新
Taikyo

Taikyo

V2EX 第 209230 号会员,加入于 2017-01-04 21:13:11 +08:00
求推荐适合冷萃的咖啡豆
咖啡    Taikyo    196 天前    最后回复来自 qiaosiren
12
摄影入门求微单推荐
摄影    Taikyo    2021-05-10 17:01:44 PM    最后回复来自 zellalan
7
收个 PS4 Pro
二手交易    Taikyo    2020-06-01 15:56:50 PM    最后回复来自 cd2want
17
迫于不看或看完不想看了,送书
免费赠送    Taikyo    2019-10-06 10:51:47 AM    最后回复来自 Taikyo
18
迫于显示器太大,出一个 32 寸 4k 显示器
二手交易    Taikyo    2018-07-29 01:10:21 AM    最后回复来自 Taikyo
12
Taikyo 最近回复了
299 天前
回复了 Taikyo 创建的主题 咖啡 求推荐适合冷萃的咖啡豆
@Varsion13 佬,有豆子推荐吗
299 天前
回复了 Taikyo 创建的主题 咖啡 求推荐适合冷萃的咖啡豆
@lear7 好像挺多人都推荐埃塞的,我去买来试试
299 天前
回复了 Taikyo 创建的主题 咖啡 求推荐适合冷萃的咖啡豆
@Varsion13 @wanghh 多谢两位佬
299 天前
回复了 Taikyo 创建的主题 咖啡 求推荐适合冷萃的咖啡豆
@lcstyle 多谢老哥,我去淘宝看看
对了,针对 4 楼的问题,我讲下我的理解,因为大语言模型回答的时候,是通过激活跟上下文相关的权重网络进行理解和回应的,并不是检索数据的过程,假设把 context 只针对本次 session 的参数,可能会有另一个问题,就是 context 如果是错误的,根据错误的权重网络,那么就会推导出错误的结果。
训练数据训练的过程其实不是记忆全部数据的过程,而是学习语言规律,用法,结构的过程,训练过程中会调整参数,在训练结束后,这些参数就是大语言模型的 “长期记忆”,而聊天的上下文,会传给大语言模型进行推理,找到权重相关的内容,然后组织出答案。上下文越多,关联的东西就越多,大语言模型需要进行更多的文本分析和激活更多的参数权重,所以就约束了参数的上下文长度。
上面那个是我跟 chagpt-4 一起交流出来的,然后梳理出来的我的理解,有错的欢迎交流指正
2023-07-28 20:45:33 +08:00
回复了 cloud176 创建的主题 职场话题 专注:如何提高专注力和注意力的简要指南
如果原文是英文的话,蹲个原文
同样用 2 楼那个字体,中文叫霞鹜文体
2023-04-22 11:08:36 +08:00
回复了 sjmcefc2 创建的主题 程序员 想请教 windows 上如何阅读 epub?
@iloveoovx readwise
2023-03-26 22:48:02 +08:00
回复了 djyde 创建的主题 程序员 28 岁,我还想生猛下去
@zhaorunze 要不你分享下你的经历?
关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     3399 人在线   最高记录 6679       Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 16ms UTC 10:36 PVG 18:36 LAX 03:36 JFK 06:36
Do have faith in what you're doing.
ubao snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86