ChatGPT 为什么越来越“懂你”?一文解析它背后的记忆机制
仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接
作者|EricHayes
编译|梦依丹
出品丨AI科技大本营(ID:rgznai100)
今年4月,OpenAI对ChatGPT的记忆系统进行了重磅升级:它可以参考用户的全部过往对话来提供更个性化的响应。ChatGPT不再是那个每次都从零开始、记忆如风的“临时陪聊者”,而正在变成一个真正能“记住你是谁、理解你喜好、回忆你曾说过什么”的“长期陪伴者”。
软件工程师EricHayes对此进行了逆向拆解——不仅厘清了ChatGPT的双重记忆架构,还推测出其背后的实现机制,并给出了完整的技术复刻路径。
本文一共分为三部分:
拆解ChatGPT记忆系统是如何运作的
推测背后可能采用的技术实现方式
探索记忆机制如何重塑用户体验
ChatGPT的记忆是如何工作的?
ChatGPT的记忆机制,主要由两大系统构成:
一是「保存记忆(SavedMemory)」
二是「聊天历史(ChatHistory)」。
保存记忆:你说过的,我认真记着
保存记忆系统是一种简单且由用户掌控的机制,用于存储关于用户的事实信息。这些信息会被重新注入到系统提示词中,成为模型生成回应时的背景知识。用户需要通过显式的指令,例如“记住我……”(RememberthatI…),才能更新这套记忆系统。同时,用户也可以通过一个简洁的界面查看或删除这些记忆内容。
在记录条目之前,系统仅会进行最基本的检查:简单去重、避免明显冲突。即便是内容高度相关的信息请求,也被允许以彼此独立的记忆条目形式共存。
引用聊天历史
虽然ChatGPT的聊天历史系统(ChatHistorysystem)在官方描述中是一个单一系统,但在作者的实测中,它其实由三套子系统构成。
这三者的结构远比“保存记忆”复杂得多,而它们,很可能是ChatGPT回应质量大幅提升的关键所在:
当前会话历史(Currentsessionhistory)
对话历史(Conversationhistory)
用户洞察(Userinsights)
当前绘话历史
这部分看起来是一个简单的记录系统,用于保存用户在其他对话中发送的最近消息。该记录容量很小,仅包含过去一天以内的内容。作者认为,这个系统与对话级RAG(检索增强生成)机制一样,都可能将用户的原话直接注入到模型的上下文中,因此它们之间的边界很难明确区分。
在测试中,这部分通常只包含不到10条的最新消息。
对话历史
来自过往对话的相关内容会被纳入模型的上下文中。这一点在使用时可以明确地观察到,因为ChatGPT能够引用用户在其他对话中发送的原话。不过,它并不能准确保留消息的顺序,也无法基于严格的时间范围进行回溯——比如“请引用我过去一小时发送的所有消息”,它就做不到了。
然而,只要你能描述一条消息的内容,或它所属的对话主题,ChatGPT便能够正确地引用它,这表明:消息的检索过程是基于对话摘要与消息内容的双重索引来进行的。
在测试中,ChatGPT能够准确引用两周以内的历史消息原文,即使是超过了这个时间范围,它也能提供相关内容的总结性描述,但往往会“伪装”成直接引用。
这可能意味着:
(1)模型上下文中直接嵌入了过去两周的完整对话历史,或
(2)超过两周的消息会被检索系统过滤掉。
不过,考虑到其他测试中的上下文转储中并未出现完整历史,第一种可能性似乎不太成立。
无论是哪种机制,ChatGPT能够在较长时间跨度后,仍然回忆起细节,说明它还依赖于另一个推理型的信息系统。这个系统更像是一个为旧对话构建的“轻量化记忆”,用以提供压缩后的线索和模糊语境。在这种策略下,模型可能会为每段旧对话生成一个总结索引,并以此索引存储用户提问的摘要列表。
不过作者尚未找到能够准确调用“旧会话中助手回复”的提示词。虽然能让它“模仿”出一些类似的回答,但这些助手回复的准确性明显低于用户消息的再现。这可能说明:
(1)助手的回复本身没有被存储,ChatGPT是在重新“即兴发挥”;
(2)助手的回复被存储了,但粒度更粗、抽象程度更高,不如用户消息那么具体。
用户洞察
用户洞察系统可以被看作是“保存记忆”的进化形态——它更隐性、更复杂,也更具智能。
如果ChatGPT重复呈现的内容是准确的,这些洞察通常呈现为如下形式:
用户在Rust编程方面有丰富经验,尤其擅长异步操作、线程处理与流式计算;
用户曾多次就Rust的异步机制、Trait对象、Serde序列化实现、自定义错误处理等话题提出深入问题,时间横跨2024年末至2025年初;
置信度:高。
通读ChatGPT多次复述的用户洞察内容[a.]可以发现,这些“洞察”并非源自某次孤立的对话,而是穿梭于多个对话线程的综合提炼。每条洞察都具有鲜明的边界感,通常伴随一个时间跨度与置信等级。这个“置信度”并非拍脑袋得出,更可能是一种模型生成的启发式指标,用于表示:参与这次总结的消息向量之间,有多高的相似性与聚合度。
这些时间跨度并非统一长度。有的被标注为“自2025年1月起”,带有一种开放性;有的则精确到某几个月份,似乎依据内容密度而定。
某些用户洞察(如上例)会同时列出多条彼此关联的事实,这进一步印证了一个判断:生成这些洞察所依赖的数据,并非零散调用,而是通过某种聚类启发式进行嵌入、归并、再提取的结果。
换句话说,这不是“记住一件事”,而是“看出一类人”。
技术实现
以下是作者根据ChatGPT记忆系统的表现,尝试还原其背后可能的技术实现路径。
保存记忆(SavedMemories)
ChatGPT的显式记忆功能,疑似是通过名为bio的内部工具来完成的(你可以通过提示它“usethebiotool”进行测试)。
若要在自己的系统中复刻这一机制,一个较为贴近的模拟实现方式可以是:
这个工具本质上可以被定义为一个对大语言模型(LLM)的调用:它接收用户的一条消息,以及一组已有的事实列表;然后返回新的事实条目,或是拒绝更新。
下面这个提示词只是初步尝试,还需在实践中不断测试与迭代,才能实现理想的行为效果。
OpenAI在ChatGPT的系统提示中这样公开定义了bio工具:
bio工具允许你在不同对话之间“持久化”信息。只需要将你的信息发送至=bio,模型就会“记住”你希望它记住的内容。在之后的对话中,这些信息会出现在模型的上下文设定中。但它也明确设下了几条“记忆边界”:不要用bio工具存储敏感信息。敏感信息包括但不限于:用户的种族、民族、宗教信仰、性取向、政治立场、性生活、犯罪记录、医疗诊断、处方药物,以及工会会员身份等。
不要存储短期信息。短期信息指的是用户一时的兴趣、正在进行的项目、当下的愿望或意图等内容。
接下来,用户的事实信息会在每次发送消息时被注入到系统提示词(systemprompt)中。为了实现与ChatGPT相同的功能,还可以构建一个简单的用户界面,用于查看和删除这些记忆条目。
引用聊天历史
当前会话历史
这一部分的实现非常直接:只需在数据库中筛选用户发送的消息记录(如ChatMessage表),按时间排序,并设置消息数量上限即可。
ConversationHistory
配置两个向量空间:第一个以消息内容(message-content)为索引,第二个则以对话摘要(conversation-summary)为索引。
将消息按发送顺序插入到以“消息内容”为索引的向量空间中。一旦某段对话进入足够长时间的非活跃状态(或当用户跳转到其他会话时),则将该对话中的用户消息添加到“对话摘要”索引空间中。
配置第三个向量空间,以“摘要”作为索引,内容为各类摘要信息。
在会话创建后的两周内,将对话摘要和消息插入该向量空间。
每当用户发送一条消息时,对其进行嵌入,并同时查询两个向量空间以检索相似项,检索时限定时间范围为两周内,并对返回结果进行合理上限控制。将检索结果注入到系统提示中(systemprompt)。
每当用户发送一条消息时,还需查询摘要空间中过去两周之前的数据,以避免重复引用。将相关结果同样注入到系统提示中。
用户洞察(UserInsights)
用户洞察的实现方式有很多种,哪种方式最优还需要进一步讨论与实验,当前尚不明确。
用户洞察很可能是基于前文所述的ChatHistoryRAG实现中使用的一个或多个向量空间生成的。用户洞察不要求实时生成,因此通常通过批处理(batching)与某种定期调度任务(cronjob)结合使用,周期性地发起更新请求。
用户洞察最棘手的部分在于:如何在不重复或产生矛盾的前提下,持续保持与用户行为模式的同步更新。一种简单但计算代价较高的方式是:每周重新生成所有活跃用户的用户洞察。这种做法可以在保持系统对变化的响应能力的同时,使得洞察可以涵盖超过定期调度周期的更长时间跨度。
配置一个每周运行一次的Lambda函数;
查询ChatMessage表,找出最近一周内发送过消息的用户;
对于每一个活跃用户,执行一次insightUpdateLambda函数。
insightUpdateLambda
该算法的目标是基于用户查询生成独特的用户洞察。生成的洞察数量应足够多以具备实用价值,但不能太多,以免无法在LLM上下文中被有效使用。为确定可用洞察的最大数量,需要进行一定实验。
考虑到当前问题的约束条件和可用数据,这个过程可以清晰地建模为一个聚类优化问题(clusteringoptimizationproblem)。我们希望找到若干个聚类数量k,要求:
k小于预设的最大聚类数量(max_clusters);
各聚类内部的方差尽可能小(低内部离散性);
并排除离群点(outliers)。
一旦完成聚类,就可以用大语言模型对用户的消息进行分析,通过精心设计的提示词,引导模型生成类似ChatGPT所展现的洞察结果。同时,也可以以确定性的方式添加时间戳。
最终,这些洞察可以被整理进一张简单的表格,并在用户对话中作为上下文附加到模型中。
用户体验
在ChatGPT上直接使用OpenAI模型的体验要优于直接调用API,这不仅是许多人的直观感受,作者本人也有类似观察。虽然提示词工程在塑造ChatGPT的“智能感”中确实起到了一定作用,但内存系统也必然在其中扮演了重要角色。尽管内存机制可能会影响模型的评测表现,但作者目前找到的基准测试都不是在ChatGPT平台上进行的,因此无法体现这些系统带来的优势。
也许,比起分析功能或参数,更值得玩味的是这样一个现象:“ChatGPT”正在走向“动词化”的语言命运,就像当年的“Google”一样。人们开始说“我去ChatGPT一下”,这不仅是一种口语转变,更是市场主导地位的语言注脚。尽管这种现象部分可以归因于先发优势,但OpenAI能在浪潮翻涌的竞争中持续站稳脚跟,意味着它交付出的产品,不只是“不输”,而是“有得一拼”,甚至“别有风味”。
在ChatGPT的诸多功能中,“记忆”机制的影响最为直接,因为它的内容由用户亲手塑造。用户可以通过系统提示词设定偏好,让ChatGPT回应得更“对胃口”。但问题也随之而来:那些最有可能受益于定制化体验的普通用户,恰恰可能不知道如何表达自己的偏好,更不用说让ChatGPT“记住”它们了。
“用户洞察”机制,正是为了解决这个悖论而诞生的。它将“你是谁,你喜欢什么”这件事,从“要你告诉我”,变成“我自己看得出”。它用自动化的方式捕捉偏好,用细腻入微的理解避免语义歧义,还能根据用户的理解方式,重新组织信息的表达方式。拿我自己来说,系统知道我偏爱技术原理而不是打比方讲故事,因此它会少一些“就像做菜那样”,多一些“这是因为底层调用了这个接口”。
短期对话记忆的实际影响很难精准界定,尽管理论上讲,让一个聊天机器人了解用户最近的行为是合情合理的设想。在更高级的系统中,这种短暂记忆甚至可以让用户在一次全新的对话中抛出含糊不清的问题,而机器人依然能从先前的交互中“意会”出含义。
但至少以作者本人的使用体验来看,ChatGPT并没有让他产生这种“它记得我刚说过什么”的感觉,也无法举出具体例子说明它曾调用过我上一轮对话的内容。
至于对话历史,它更像是在试图赋予聊天机器人一种“人类记忆”般的语境延续——就像我们与人交谈时,理所当然地期待对方记得我们之前聊过些什么。共享的对话背景可以避免无休止的重复、绕圈子,或逻辑自我打架。但要让这个机制发挥作用,关键在于能否准确提取并运用“有用的那部分”历史,而不是一味堆砌回忆。
至于到底哪一种机制对ChatGPT“智能感”的提升作用最大?除非进一步实验,否则无法下定论。但就作者目前的观察而言,倾向认为“用户洞察系统”功劳最大,占比可能超过80%。虽然这个判断尚无严谨数据支撑,但从试验来看,这套基于细致提示的机制确实有效提升了表现,而且它不像对话历史那样依赖复杂的检索流程。
在文末,作者还附上了一些试验过程中的札记,记录了他推导结论时的思考片段与探索线索。尽管这些内容未必严谨周全,却展现了一个技术使用者与系统之间持续互动、不断试探的过程。如果你对这些背后的推理路径与思维细节感兴趣,不妨前往原文一探究竟。
原文链接:https ://macro. com/app/md/54115a42-3409-4f5b-9120-f144d3ecd23a
推荐阅读:
图灵奖得主杨立昆:中国人并不需要我们,他们自己就能想出非常好的点子
阿里云发布通义灵码AIIDE,深度适配千问3大模型、新增编程智能体,可调用3000+MCP服务
微软CEO萨提亚·纳德拉:智能体即产品,SaaS已死?
📢2025全球产品经理大会
2025年8月15–16日
北京·威斯汀酒店
2025全球产品经理大会将汇聚互联网大厂、AI创业公司、ToB/ToC实战一线的产品人,围绕产品设计、用户体验、增长运营、智能落地等核心议题,展开12大专题分享,洞察趋势、拆解路径、对话未来。
更多详情与报名,请扫码下方二维码。