本页为未来迭代方案。当前实现见 Pipelines,总览见 Evolution Roadmap。
Phase 5: 智能提取
目标:替换启发式提取,让系统自主决定”什么值得记住” 现状(Phase 2):行为统计 + LLM 一次性提取,固定规则决定存什么。 问题:一次性提取遗漏上下文关系,固定规则无法自适应。5.1 预测-校准提取(NEMORI)
NEMORI 的核心思想来自自由能原理:系统预测即将发生什么,当预测失败时,才触发记忆存储。 Kira 实现:5.2 主动提取(ProMem)
ProMem 的关键洞察:通过自问式迭代探测(recurrent self-questioning)主动从对话历史中挖掘值得记忆的信息,而不是被动存储再寄希望于检索能找到。5.3 惊奇分割(HiMem)
用话题连贯性 + 惊奇度双通道检测对话边界,替代固定 turn 数分割:Phase 6: 深度固化
目标:从简单的”每天跑一次 Consolidator”升级为多层次离线记忆加工 现状(Phase 3):每天凌晨 3:00 跑一次 LLM 更新画像。 问题:无法处理矛盾记忆,固化粒度太粗。6.1 睡眠时固化(LightMem)
受 Atkinson-Shiffrin 模型启发,将固化完全解耦为离线 Worker: Kira 实现:固化 Worker 作为独立 NATS consumer,session 结束时触发而非每天定时:6.2 冲突感知再固化(HiMem)
当检索到的记忆与新信息矛盾时,触发再固化:6.3 叙事记忆构建(Amory)
关键洞察:在离线时用 Agent 推理构建记忆,比在线时检索更值得投入算力。Phase 7: 自适应遗忘
目标:从简单指数衰减升级为认知科学级遗忘机制 现状(Phase 4):单一指数衰减 + access_count 加成。 问题:所有记忆用相同衰减速率,已固化记忆仍占用空间。7.1 ACT-R 激活公式
用认知科学的 ACT-R 模型替代简单指数衰减:7.2 差分衰减率(FadeMem)
不同类型的记忆用不同的衰减速率:7.3 混合遗忘策略
基于 Forgetful but Faithful 的六策略框架,Kira 选用其中五个(去掉与 LRU 重叠的 FIFO),以 Hybrid 为默认:| 策略 | 说明 | 场景 |
|---|---|---|
| Priority Decay | 重要度加权衰减 | 默认混合策略的核心 |
| Reflection-Summary | 低激活记忆摘要合并 | Consolidator 中使用 |
| LRU | 最久未访问优先淘汰 | 缓存层(Dragonfly)清理 |
| Random-Drop | 概率随机丢弃 | 防止过拟合 |
| Hybrid | Priority Decay + Reflection-Summary | 默认策略 |