Agent 的记忆和技能,其实是同一个问题
arxiv 刚出的一篇《Experience Compression Spectrum》把 22 篇论文 1100 篇引用过了一遍,甩了一个值得停下来想想的判断:agent memory 和 agent skill discovery 本质是同一个问题,只是在不同的压缩级别上。
情景记忆把经验压 5 到 20 倍。声明式规则压 1000 倍起。中间是技能——比存下来的交互更抽象,比规则更具体。作者说每一篇 agent memory 论文和每一篇 agent skill 论文,其实都在解决这个谱系上的某一个点,只是两个圈子互相不知道对方存在。
更有意思的是"missing diagonal"——没有一个现有系统能跨压缩级别自适应。你的 agent 要么存原始 trajectory 要么学符号化规则,没有哪个系统能动态判断什么时候一段经历该变成技能、什么时候技能该沉淀成规则。这个空白才是真的研究前沿。
没代码,纯 survey。但你要做带记忆的 agent,选框架之前看一眼,能省你一堆重复决策的弯路。
论文地址 https://arxiv.org/abs/2604.15877
← 返回所有文章
情景记忆把经验压 5 到 20 倍。声明式规则压 1000 倍起。中间是技能——比存下来的交互更抽象,比规则更具体。作者说每一篇 agent memory 论文和每一篇 agent skill 论文,其实都在解决这个谱系上的某一个点,只是两个圈子互相不知道对方存在。
更有意思的是"missing diagonal"——没有一个现有系统能跨压缩级别自适应。你的 agent 要么存原始 trajectory 要么学符号化规则,没有哪个系统能动态判断什么时候一段经历该变成技能、什么时候技能该沉淀成规则。这个空白才是真的研究前沿。
没代码,纯 survey。但你要做带记忆的 agent,选框架之前看一眼,能省你一堆重复决策的弯路。
论文地址 https://arxiv.org/abs/2604.15877
评论