浅谈 Agent Memory 架构本质

记忆不是存档,而是时间中的状态治理;它的终点不是“记得”,而是“会了”。

客观事实 / 概念定义
核心观点 / 深刻洞察

✨ 核心金句速览

“如果你的 Agent Memory 只做到了‘存聊天记录 + 向量检索’,那它拥有的不是记忆,只是一个带搜索功能的垃圾箱。”
“没有 Memory 的 Agent,就像永远从第一天开始上班的实习生:再聪明,也积累不了经验。”
“Memory 的核心不是‘把过去留下来’,而是治理过去如何进入现在。”
“一个不会记的系统最多只是笨;一个不会忘的系统,则会越来越被旧版本困住。”
“RAG 像图书馆,Memory 像对你的理解。前者处理知识覆盖范围,后者处理个体关系演进。”
“蒸馏试图把过去变成一句话,而记忆试图把过去变成一个还能继续更新的模型。”

🗂️ 核心架构概念 (翻转卡片)

界定 Memory 的边界

别把邻居概念混淆为记忆

🔄 点击翻转

Memory 绝不是这些:

  • State (状态):当前 Session 的短期运行态,用完即毁。
  • Policy (策略):外部权限规范,Memory 不应有权限动态修改(否则是越权)。
  • Profile (画像):只是低维快照,不等同于完整的记忆理解。
  • 蒸馏/摘要:只是管理链路的一步。它偏向静态结论,丢失了形成结论的轨迹,脱离了闭环就会变成“僵化的惯性”。

认知科学根基 (CoALA)

Agent 到底“记住了什么”?

🔄 点击翻转

记忆的四分法

  • 工作记忆:当下可直接参与推理的上下文(所有记忆必须通过的瓶颈)。
  • 情景记忆:带时间属性的经历记录(保留“事情是怎么发生的”)。
  • 语义记忆:从经历中蒸馏出的稳定知识,更加结构化但易丢失原始语境。
  • 程序性记忆:最易被低估。内化为行动模式的规则(Skills、SOP),决定知识能否转为能力。

记忆建模的四个对象

不只是“存用户偏好”

🔄 点击翻转

全方位建模

  • 用户模型:风险偏好、沟通习惯、决策模式演变的轨迹。
  • 任务模型:否决方案、已确认事实、当前版本的Artifact进度。
  • 世界模型:环境约束、系统边界、API规则。
  • 自我模型:试错记录、工具稳定性、假设推断(避免重复犯错)。

“懂你”是因为它综合了你的脾气、环境和它自身的边界。

基本记忆单元计算化

如何将字符转为可结构化的对象

🔄 点击翻转

六个必备维度

  • 1. 内容:到底说了什么。
  • 2. 类型:Event(事件), Assertion(声明), Belief(信念/推断), Constraint(边界), Commitment(承诺)。
  • 3. 置信度:系统对该记忆有多确信。
  • 4. 来源 (Provenance):用户直接说 vs 行为推断 vs 系统幻觉。
  • 5. 作用域 (Scope):在哪种上下文中才成立。
  • 6. 时间与衰减:何时产生,权重衰减。

破电话效应 (漂移风险)

原始材料 vs 派生材料

🔄 点击翻转

两者的拉扯与平衡

  • Raw (原始材料):忠实事实,但太散、太碎、缺乏直接意义。
  • Derived (派生材料):紧凑可用(如摘要图谱),但会一步步远离事实。

如果没有证据层,系统会漂移成自我叙事;如果没有派生层,系统会钝。严肃系统必须两者兼备。

OS隐喻与终局能力

将记忆固化为行动模型

🔄 点击翻转

资源调度与能力蒸馏

  • 操作系统隐喻:上下文窗口=RAM,外部存储=磁盘。记忆的核心变成了资源调度与治理。
  • 终点是 Skills:记忆被反复验证后,沉淀为可复用的程序性能力(比如 Hermes Agent 的学习循环)。从“发生过”->“总结过”->最终跃迁为“会做了”。

🔍 深度解析:三条链路与系统治理

记忆系统不是一个容器,而是一次不断进行有损重建的生命周期。每一步的核心都在于:决定谁能获得对未来的影响力。

  • 写入(预算分配):在存储、检索与注意力预算有限下,不应“有价值就存”,而应存“边际价值高”或“与已有信念冲突”的信号。行为证据通常比口头表态更值得分配写入预算。
  • 管理(容易偷懒的深水区):处理整合、冲突处理、衰减遗忘、来源追踪和权限治理。用户不同时间表达的相反偏好,应该保留矛盾并通过情境读取,而不是粗暴的“以最新为准”。
  • 读取(任务约束优先):放弃单纯的语义向量召回,转为“任务约束驱动的检索-推断耦合”。先由任务层判断决策需要什么约束,再去检索图谱,最后评估记忆的适用性。

系统真正的“进化”建立在两个基石上:

  • 自我修正:当反馈错误时,不仅要修正当前的回答,必须回溯到记忆层:是检索错了?信念过期了?还是作用域应用错了?只打补丁不修正上游的系统,没有在学习。
  • 有策略的遗忘:Delete 不等于 Forget。真正的遗忘是一场谱系清算(清除一条信息影响的衍生链条)。不能忘的系统一定会被旧有判断锁死,积累大量过时的自我理解。

今天的 Agent Memory 可归为五种核心架构信仰:

  1. 文件驱动:强调可见、可编辑、可审计。
  2. 图谱驱动:重点组织关系网络与状态随时间的变化(如 HippoRAG)。
  3. 混合存储驱动:向量、图、KV 分工处理召回与推理。
  4. 策略学习驱动:模型直接学习何时记、何时忘。
  5. 技能蒸馏驱动:将记忆终点设为可复用能力。

多 Agent 的记忆共享难题:当进入组织协作级别时,Memory 变成了一套社会性安排。没有治理层(权限、来源、可撤销性),共享记忆就会互相污染,变成一堆失去责任主体、彼此冲突的叙事碎片。

📚 项目引用与实时生态探索 (2026版)

基于行业前沿动态,对文中提及的关键理论架构与开源项目进行了搜索探索并摘要归纳:

🧠 CoALA (Cognitive Architectures)

Princeton 研究论文。系统性地将 LLM 转化为具备模块化记忆(工作、情景、语义、程序性)、结构化决策循环与行动空间的类人认知系统,为 Agent 发展指明了蓝图。

⚡ Hermes Agent (Nous Research)

开源项目。代表“技能蒸馏驱动”的最前沿。自带跨会话的持久记忆与内置学习循环,能将经验提炼为 reusable skills。2026年爆火,成为取代部分僵化 Agent 框架的明星产品。

🦞 OpenClaw (原 Clawdbot)

开源项目。由 Peter Steinberger 开发的高热度个人助理框架(超24万Stars)。近期遭遇生态争议:社区发现“如果记忆没有被治理好,Agent 执行的将全是一次性的剧场表演”,反向印证了 Memory 稳定性的重要性。

🦛 HippoRAG 2

神经生物学启发的记忆框架。模拟人脑海马体(索引)和新皮层(存储)。它将文本转为无模式知识图谱,通过 Personalized PageRank 算法进行多跳关联查询,大幅解决 RAG 只能找表面相似度、无法执行复杂“补全”的痛点。

💾 Letta (MemGPT)

核心隐喻提出者。它将大模型 Context 视为 RAM,外部存储视为 Disk。系统重点变成了操作系统的分页/换出调度,而不再是单纯搜索。

📝 LLM-Wiki (Karpathy)

知识沉淀范式。摒弃单纯 RAG 检索,让模型在后台持续维护并改写一个结构化的 Markdown Wiki,实现经验的沉淀与累积,而非每次重新计算。

📊 Plotly vs Matplotlib

分析工具案例。文中用来解释 Agent “意图理解演进”。Matplotlib 代表底层、稳定、学术绘图;Plotly 代表网页端强交互、注重展示。系统如果能记住用户的上下文是做 Web 报表,就能自然选择后者。

原文

源链接