2026年4月10日ResearchSkillsAgents

SkillClaw:如果 Agent 技能能自己升级呢?

每个 agent 框架都让你写技能。但没有一个让技能自己变好。SkillClaw 要改变这一点。

这篇论文在 HuggingFace 上拿到了 118 个赞,解决的是一个具体但被严重低估的问题:agent 技能是静态的。你写了一个技能,部署上去,它就永远保持你写的那个样子。与此同时,几百个用户在跑同一个技能,碰到同样的边界情况,发现同样的变通方法,但这些集体经验没有一条能反馈到技能本身。每个用户都在独立地重新发现同样的失败模式。

SkillClaw 引入了一个自主进化器,位于用户和共享技能仓库之间。它持续收集实际使用中的轨迹数据,识别反复出现的行为模式 — 什么一直有效、什么一直失败 — 然后把它们转化为技能更新。现有技能被优化,新能力被添加,改进自动同步给所有用户。一个用户发现了处理某个棘手 API 调用的更好方式,其他所有用户不用做任何事就能受益。

在 WildClawBench 上的实验表明,在有限的交互和反馈下,Qwen3-Max 在真实世界 agent 场景中获得了显著的性能提升。核心发现是:跨用户的集体学习产生的技能比任何单独优化都更好。从多样化使用模式中进化出来的技能,比单个开发者手工调优的技能更鲁棒。

这是 agent 技能生态的逻辑下一步。静态技能是 1.0 版本。从每次用户交互中学习的自我改进技能是 2.0 版本。问题在于基础设施能否跟上 — 技能版本管理、竞争性改进之间的冲突解决、自动更新的质量控制,都是难题。

https://arxiv.org/abs/2604.08377
← 上一篇
Instant 1.0:让每个 Coding Agent 都变成全栈开发者
← 返回所有文章

评论

加载中...
>_