2026年4月7日ResearchAgentsRL

MIA:故意遗忘的 Agent,反而记得更好

到目前为止,所有 agent 记忆系统都在问同一个问题:怎么存更多?华东师大和上海 AI Lab 的团队反其道而行:怎么存更少,但更有用?

Memory Intelligence Agent 为深度研究 agent 引入了一套类脑架构。与其把对话历史塞进长上下文窗口——这实际上会因为注意力稀释而降低性能——MIA 用了 Manager-Planner-Executor 结构。Manager 把过去的经验压缩成结构化工作流。Planner(Qwen3-8B)从这些压缩记忆中生成高层搜索计划。Executor(Qwen2.5-VL-7B)用工具去执行。

巧妙的是训练方式。MIA 用了交替强化学习:先训练 Executor 跟着计划走,再用执行反馈训练 Planner。这种来回配合产生的协同效应是单一组件做不到的。此外还有测试时学习——系统在推理过程中更新自身参数,同时使用检索到的工作流和内化的知识。

在 11 个基准测试上结果很强:多模态任务提升 8.94%,纯文本任务提升 12.38%。在极难的 GAIA 基准上提升 8.8 个点。最有意思的发现:带 MIA 的 7B 模型比不带的 32B 模型高出 18 个点。无监督进化组件——三个审稿 agent 加一个 area chair,模仿学术同行评审——让系统无需人工标注就能自我改进。

这篇论文最重要的发现不是架构本身。而是原始记忆注入(传统 RAG、Mem0)的表现居然比完全不用记忆还差。长上下文不是答案,智能压缩才是。

https://arxiv.org/abs/2604.04503
← 上一篇
DeepTutor:Agent 学会了当老师
下一篇 →
超级用户日报: April 08, 2026
← 返回所有文章

评论

加载中...
>_