IQuest-Coder-V1:开源代码模型家族在SWE-Bench Verified上达到76.2%
IQuest-Coder-V1是由IQuestLab(北京量化对冲基金九坤投资的AI研究部门)推出的开源代码生成模型家族,包含7B、14B和40B三个参数规模。本月在arXiv发表的技术报告已在HuggingFace Daily Papers上获得1,380个赞——平台历史上第二高的互动量。
核心创新是"代码流训练"(code-flow training):模型不再学习静态代码快照,而是从代码仓库的演化模式、提交历史、重构过程和真实开发工作流中学习。这使模型理解软件如何真正演化,而不仅仅是成品代码的样子。模型变体包括Instruct(指令跟随)、Thinking(复杂推理)和Loop(共享参数的循环Transformer架构)。
IQuest-Coder-V1-40B在SWE-Bench Verified上得分76.2%——与Claude Sonnet 4.5(77.2%)相当,高于GLM-4.7(73.8%)。所有模型原生支持128K token上下文,完全开源,权重在HuggingFace上发布。
GitHub:https://github.com/IQuestLab/IQuest-Coder-V1
论文:https://arxiv.org/abs/2603.16733
← 返回所有文章
核心创新是"代码流训练"(code-flow training):模型不再学习静态代码快照,而是从代码仓库的演化模式、提交历史、重构过程和真实开发工作流中学习。这使模型理解软件如何真正演化,而不仅仅是成品代码的样子。模型变体包括Instruct(指令跟随)、Thinking(复杂推理)和Loop(共享参数的循环Transformer架构)。
IQuest-Coder-V1-40B在SWE-Bench Verified上得分76.2%——与Claude Sonnet 4.5(77.2%)相当,高于GLM-4.7(73.8%)。所有模型原生支持128K token上下文,完全开源,权重在HuggingFace上发布。
GitHub:https://github.com/IQuestLab/IQuest-Coder-V1
论文:https://arxiv.org/abs/2603.16733
评论