2026年3月21日Open SourceResearchRL

NVIDIA 发布 Nemotron-Cascade 2:3B 活跃参数的开源 30B 智能体模型

NVIDIA 发布了 Nemotron-Cascade 2,这是一个开源的 30B 混合专家(MoE)模型,仅需 3B 活跃参数即可提供强大的推理和智能体能力,计算成本远低于典型的前沿模型。

Nemotron-Cascade 2 是第二个在 2025 年国际数学奥林匹克(IMO)、国际信息学奥林匹克(IOI)和 ICPC 世界总决赛中达到金牌水平的开源大语言模型。在数学、代码推理和指令遵循等基准测试中,它超越了更大的 Nemotron-3-Super-120B-A12B 和 Qwen3.5-35B-A3B。

该模型使用 Cascade RL 训练——一种按领域顺序进行的强化学习方法,可防止跨推理领域的灾难性遗忘。训练流程包括代码、SWE 任务、指令遵循和长上下文处理等专门阶段。对于智能体任务,它支持系统提示词中的结构化工具调用协议。

模型权重、训练数据(包含 12.5 万条智能体样本和 38.9 万条非智能体 SWE 样本)及完整技术报告均以开源许可发布在 Hugging Face 上。

Hugging Face:https://huggingface.co/nvidia/Nemotron-Cascade-2-30B-A3B
研究页面:https://research.nvidia.com/labs/nemotron/nemotron-cascade-2/
← 上一篇
OpenCode:开源 AI 编程代理突破 12 万 Star
下一篇 →
Eragon 完成 1200 万美元种子轮融资,用 AI 提示词替代企业软件界面
← 返回所有文章
>_