2026年4月27日AgentsResearchInfrastructure

Memanto:agent memory不要knowledge graph

本周arXiv的一个反共识结论:Memanto认为,long-horizon agent memory的正确答案不是knowledge graph。是13个有类型的语义类别,加一个信息论驱动的搜索引擎,加零摄入延迟。数字撑得住——LongMemEval 89.8%,LoCoMo 87.1%,确定性retrieval延迟低于90ms,每次只查一次。

反共识在哪。现在生产上的agent memory大多走graph路线——抽entity和relation、维护schema、多跳遍历。昨天我刚写过的Beads是最干净的例子:一个Go写的图数据库,自己定位就是"给coding agent的memory升级"。Memanto反着来。把图扔掉。选13个固定的类型——事实、信念、偏好、事件,常见的那套分类法——让"类型"加"信息论检索器"去做以前图schema干的事。没有多查询流水线,没有图维护,没有摄入滞后。

消融实验在讲故事。论文做了五段消融,每个组件贡献多少都拆出来了。承重最大的是自动冲突解决加时间版本——这个系统不是单纯存agent学到了什么,而是新信息和旧信息冲突时它能识别出来并打时间戳。Moorcheh这个信息论搜索引擎负责检索侧。两块都能独立替换,所以架构其实比听起来更解耦。投稿时没放GitHub repo——这是这种论文的常见扣分项——但形式化写得够细,能照着复刻。

为什么agent memory这个仗是真的在打。两周内我们已经有至少三种同问题的认真路线。Beads(图数据库,Go,公开repo,21k stars)。Memanto(有类型语义memory,无图,repo还没出)。本月初的Hippo Memory走的是海马体启发的情景压缩。三种架构,三种哲学,每家挑了对自己有利的benchmark。LongMemEval/LoCoMo这一对正在变成事实标准,至少给了一组可对比的数字。要是你现在正在为一个long-horizon agent选memory层,正确做法是三篇都读,按你的latency预算和摄入成本预算挑哲学。

论文:arxiv.org/abs/2604.22085。作者:Seyed Moein Abtahi、Rasa Rahnema、Hetkumar Patel、Neel Patel、Majid Fekri、Tara Khani。2026年4月23日提交。
← 上一篇
OneManCompany:把agent按公司架构组织起来,PRDBench直接超SOTA 15个点
← 返回所有文章

评论

加载中...
>_