本页为未来迭代方案。当前实现见 Pipelines,总览见 Evolution Roadmap。
Phase 8: 多维检索
目标:从单一向量相似度升级为多维度智能检索 现状(Phase 3):LanceDB cosine similarity + mergeAndRank。 问题:只靠语义相似度会”上下文隧穿”——检索到表面相似但实际无关的记忆。8.1 多图分解(MAGMA)
将记忆间的关系拆分为四个独立维度: Kira 实现:查询时根据意图选择维度:8.2 扩散激活 + 侧抑制(SYNAPSE)
解决”上下文隧穿”——检索沿记忆网络扩散,同时压制无关记忆: 侧抑制:表面相似但语义不相关的记忆被主动压制。 关键收益:23% multi-hop 推理提升(vs full-context 方法)+ 95% token 减少。8.3 演化信念层(Hindsight)
在现有记忆类型之上增加”信念”层——Agent 对用户的推断,区别于原始事实:8.4 联合记忆检索(MEMENTO)
MEMENTO(ICLR 2026)是一个评估框架,通过单记忆和联合记忆两类任务系统性地揭示了关键问题:Agent 能回忆单条记忆,但组合多条记忆做决策时失败率极高。Phase 9: 群体智能与安全
目标:升级群记忆从简单独立实体到精细权限 + 安全防护 现状(Phase 3):群和用户共享同一 entity 模型,inject 时并行拉取。 问题:无权限控制,无来源追踪,群记忆可被注入恶意内容。9.1 二部图访问控制(Collaborative Memory)
将群记忆的访问控制建模为二部图: 数据模型扩展:9.2 来源追踪
每条记忆携带不可变的来源信息:9.3 共识验证(A-MemGuard)
新记忆写入群记忆前,与已有记忆进行一致性校验:Phase 10: RL 记忆自治
目标:用强化学习替代所有手写的记忆管理规则 现状:提取、固化、遗忘全靠手写启发式。 愿景:Agent 自己学会”什么时候存、存什么、什么时候删”。10.1 RL 训练的记忆策略(AgeMem)
将所有记忆操作暴露为 tool calls,用 RL 训练 Agent 学会最优策略:- 自适应不同用户——高频和低频用户需要不同策略
- 可迁移——在 30k tokens 上训练的策略,能泛化到 400k tokens