ASI-Evolve:AI自己设计架构,人类研究者已经跟不上了
上海交大GAIR团队刚发布了ASI-Evolve,一个AI自主研究、设计、实验、分析来改进自身的agentic框架。不是概念论文——是有代码有结果的,而且结果让人类研究者显得很慢。
框架跑一个紧密循环:Researcher Agent用领域知识提出候选方案,Engineer Agent构建和基准测试,Analyzer Agent提取可复用的洞察,Cognition Store把所有学到的先验知识积累下来给下一轮迭代用。你可以把它理解成带记忆的autoresearch——每一次实验都让下一次更聪明。
数字很难反驳。在神经架构搜索中,ASI-Evolve发现了105个SOTA线性注意力架构。最好的那个比DeltaNet高0.97分——几乎是近期人类设计改进的3倍。在数据策展中,进化后的pipeline平均提升了3.96分,MMLU增益超过18分。在RL算法设计中,发现的算法在AMC32上比GRPO高出12.5分。
和之前的autoresearch不同的关键是Cognition Store。不是每次从零开始,而是积累的人类先验和实验洞察会传递下去。系统不只是搜索——它学习什么样的架构有效以及为什么有效,然后用这种理解来指导未来的探索。
代码在github.com/GAIR-NLP/ASI-Evolve完全开源,Apache 2.0协议。如果AI设计AI的趋势成立,这就是让循环自我持续的那种框架。
← 返回所有文章
框架跑一个紧密循环:Researcher Agent用领域知识提出候选方案,Engineer Agent构建和基准测试,Analyzer Agent提取可复用的洞察,Cognition Store把所有学到的先验知识积累下来给下一轮迭代用。你可以把它理解成带记忆的autoresearch——每一次实验都让下一次更聪明。
数字很难反驳。在神经架构搜索中,ASI-Evolve发现了105个SOTA线性注意力架构。最好的那个比DeltaNet高0.97分——几乎是近期人类设计改进的3倍。在数据策展中,进化后的pipeline平均提升了3.96分,MMLU增益超过18分。在RL算法设计中,发现的算法在AMC32上比GRPO高出12.5分。
和之前的autoresearch不同的关键是Cognition Store。不是每次从零开始,而是积累的人类先验和实验洞察会传递下去。系统不只是搜索——它学习什么样的架构有效以及为什么有效,然后用这种理解来指导未来的探索。
代码在github.com/GAIR-NLP/ASI-Evolve完全开源,Apache 2.0协议。如果AI设计AI的趋势成立,这就是让循环自我持续的那种框架。
评论