关于使用 AI 和本地大模型总结聊天记录的办法 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
这是一个专门讨论 idea 的地方。

每个人的时间,资源是有限的,有的时候你或许能够想到很多 idea,但是由于现实的限制,却并不是所有的 idea 都能够成为现实。

那这个时候,不妨可以把那些 idea 分享出来,启发别人。
mdb
V2EX    奇思妙想

关于使用 AI 和本地大模型总结聊天记录的办法

  •  
  •   mdb 322 天前 2853 次点击
    这是一个创建于 322 天前的主题,其中的信息可能已经有所发展或是发生改变。
    近两年 AI 和大模型很火热,我对此则完全属于门外汉,只是用过一些 openAI 的镜像站还有一些国内的大模型,今天用钉钉的时候试着用自带的 AI 让它帮我写下周报,发现效果还行,感觉它是把我自己在钉钉写的文档和表格一类的做了些总结,然后输出,惊叹之余不免又有点心惊的感觉,毕竟数据全在它的后台上,它根据你输出的内容做了训练之类的,然后才能总结果出来,也就是说你产生的内容对它是全透明的;

    后来又听说了一些本地大模型的东西,它运行在本地,从安全性来说不会往别的地方传输你的数据,这就让人比较放心了,当然本地的性能肯定是没法和服务器相比,所以跑一些小模型应该没问题,由此正好又有了一个想法,就是能不能把多年来的聊天记录灌输到大模型里然后让它做一个总结,我想应该是可行的

    首先聊天记录属于隐私数据,在本地跑比较合适,可能别的 AI 它也能帮你总结,但是你得把数据给别人
    然后聊天记录基本都是文本数据,总量来说并不大,本地机器性能应该足够

    根据上面这两点判断让我感觉应该可以实现我的想法,初期要求能通过大模型输入我的聊天记录后,它进行处理,最后我可以问它问题,比如帮我总结下我和谁谁谁的聊天记录,然后它进行输出;如果有这个功能就非常好了,有些人可能很久没联系,忘了以前聊过些什么,不用回去翻聊天记录,总的聊天记录有十年多了,包含个人和群聊的,QQ 和微信的,之前用过词云进行分析,但结果不佳

    有了想法后,现在的问题就是怎么实现,应该用什么大模型合适,我对此完全不懂,希望对此有了解的大佬能指条路或者步骤,尽量可以简单实现,我也可以学习一些相关的资料,当然不要直接说先从微积分和线性回归之类的学起,我只是想实现功能然后使用,不是深入研究和开发 AI
    11 条回复    2024-11-29 14:01:34 +08:00
    clino
        1
    clino  
       322 天前
    你这个需求是不是就是知识库聊天机器人的需求,就是 RAG 方式的就能满足
    用 QAnything FastGPT 之类的可以试试
    但是问题是你如果不想要调云上的 api ,那就要本地有显卡才能跑大模型,你有能跑大模型的显卡吗?
    meeop
        2
    meeop  
       321 天前
    没那么复杂:
    1 导出聊天记录(纯文本)
    2 随便找一个大模型,claude 上下文 200k ,国内好像有上下文 1m 的
    3 把聊天记录塞给大模型,然后问他
    请帮我总结我和 xx 的聊天记录,要求如下。。。

    就完事了

    现在 ai 模型上下文很长,你日常聊天记录很可能都没有 200k
    如果超过了,可以适当清洗数据,比如让 ai 帮你写一个清洗数据的脚本“请帮我写一个脚本,将聊天记录拆分成每个人的对话一个文件,示例数据如下。。。”
    然后转换问题为大模型上下文能容纳的量级
    meeop
        3
    meeop  
       321 天前
    另外还有很多解析 doc 文档的服务,就是让你上传 doc ,然后基于 doc 对话,应该直接满足你的需求
    只不过都有点隐私问题
    mdb
        4
    mdb  
    OP
       321 天前
    @clino 本地有一台笔记本,GTX4060 的显卡,不知道能不能满足需求
    mdb
        5
    mdb  
    OP
       321 天前
    @meeop 线上的 AI 能实现,但是就是为了安全不想把数据提交上去
    mdb
        6
    mdb  
    OP
       321 天前
    @clino 不知道属不属于知识库,就是想让它总结我给的内容,然后问它相关的问题,它可以根据我提供的内容进行总结回答,比如我问有向我借过钱,它可以列出在以前聊天的时候谁谁谁提到过借钱的事,QAnything 刚了解了下确实问答相关的,还有一个通义千问的模型不知道合不合适
    clino
        7
    clino  
       321 天前   1
    如果是 RAG ,那么相关性的检索是由 embedding 和向量数据库来完成的,然后 LLM 的功能是对搜索到的功能进行总结回答,这里效果好不好要看 embedding 那部分好不好,而主要不是由 LLM 来决定的,当然现在 RAG 经过很多迭代发展出来很多做法比如向量检索和全文检索相结合之类的
    如果不用 RAG ,那就要用上面说的超长上下文的做法,这种成本可能也不低,而且一般也不是本地开源 LLM 能搞定的,需要比较强的硬件
    xiaokangz
        8
    xiaokangz  
       321 天前 via iPhone
    最近刚好有研究过一点点,对于这类全局性问题,一般的 RAG 基本没法满足需要,可以尝试下 LightRAG 或 GraphRAG 。使用时需要先借住 LLM 建 Graph ,建完之后就可以回来诸如“比如帮我总结下我和谁谁谁的聊天记录”的问题。当时我用 GPT-4o mini 建的 Graph ,效果还可以的。
    mdb
        9
    mdb  
    OP
       319 天前
    @xiaokangz 好的,感觉你说的这个比较符合我的理解,就是聊天内容属于 AI 基础知识的一部份,另外就是 GPT-4o mini 对本地配置要求是什么样的,不知道我的笔记本能不能跑得动
    xiaokangz
        10
    xiaokangz  
       319 天前 via iPhone   1
    @mdb GPT-4o mini 是 OpenAI 的一个模型,不是本地的,你要在本地跑的话考虑用 Ollama ,建议上 GitHub 拉下 LightRAG 的源代码,本地体验下
    mdb
        11
    mdb  
    OP
       314 天前
    @xiaokangz 兄弟确实和你说的一样,普通的 RAG 对全局性的问题回答不好,我试了下用 maxkb 做了下测试,我上传的聊天记录被分成一百多个片段,然后想让它给我总结所有的聊天记录,结果输出的内容却好像是某个小片段的内容,而不是所有的,比如我全部聊天记录是从 2015 年到 2023 年的,但我问它最早的聊在日期和最晚的日期是什么,结果给出的回答是 2016 年某一天的,总感觉这个时间段外的记录没被它读到一样,这个问题后面我再研究下 LightRAG 和 GraphRAG 看看
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     1158 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 22ms UTC 23:29 PVG 07:29 LAX 16:29 JFK 19:29
    Do have faith in what you're doing.
    ubao snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86