记忆不是存档,而是时间中的状态治理;它的终点不是“记得”,而是“会了”。
别把邻居概念混淆为记忆
Agent 到底“记住了什么”?
不只是“存用户偏好”
“懂你”是因为它综合了你的脾气、环境和它自身的边界。
如何将字符转为可结构化的对象
原始材料 vs 派生材料
如果没有证据层,系统会漂移成自我叙事;如果没有派生层,系统会钝。严肃系统必须两者兼备。
将记忆固化为行动模型
记忆系统不是一个容器,而是一次不断进行有损重建的生命周期。每一步的核心都在于:决定谁能获得对未来的影响力。
系统真正的“进化”建立在两个基石上:
今天的 Agent Memory 可归为五种核心架构信仰:
多 Agent 的记忆共享难题:当进入组织协作级别时,Memory 变成了一套社会性安排。没有治理层(权限、来源、可撤销性),共享记忆就会互相污染,变成一堆失去责任主体、彼此冲突的叙事碎片。
基于行业前沿动态,对文中提及的关键理论架构与开源项目进行了搜索探索并摘要归纳:
Princeton 研究论文。系统性地将 LLM 转化为具备模块化记忆(工作、情景、语义、程序性)、结构化决策循环与行动空间的类人认知系统,为 Agent 发展指明了蓝图。
开源项目。代表“技能蒸馏驱动”的最前沿。自带跨会话的持久记忆与内置学习循环,能将经验提炼为 reusable skills。2026年爆火,成为取代部分僵化 Agent 框架的明星产品。
开源项目。由 Peter Steinberger 开发的高热度个人助理框架(超24万Stars)。近期遭遇生态争议:社区发现“如果记忆没有被治理好,Agent 执行的将全是一次性的剧场表演”,反向印证了 Memory 稳定性的重要性。
神经生物学启发的记忆框架。模拟人脑海马体(索引)和新皮层(存储)。它将文本转为无模式知识图谱,通过 Personalized PageRank 算法进行多跳关联查询,大幅解决 RAG 只能找表面相似度、无法执行复杂“补全”的痛点。
核心隐喻提出者。它将大模型 Context 视为 RAM,外部存储视为 Disk。系统重点变成了操作系统的分页/换出调度,而不再是单纯搜索。
知识沉淀范式。摒弃单纯 RAG 检索,让模型在后台持续维护并改写一个结构化的 Markdown Wiki,实现经验的沉淀与累积,而非每次重新计算。
分析工具案例。文中用来解释 Agent “意图理解演进”。Matplotlib 代表底层、稳定、学术绘图;Plotly 代表网页端强交互、注重展示。系统如果能记住用户的上下文是做 Web 报表,就能自然选择后者。