NVIDIA 发布 Nemotron-Cascade 2:3B 活跃参数的开源 30B 智能体模型
NVIDIA 发布了 Nemotron-Cascade 2,这是一个开源的 30B 混合专家(MoE)模型,仅需 3B 活跃参数即可提供强大的推理和智能体能力,计算成本远低于典型的前沿模型。
Nemotron-Cascade 2 是第二个在 2025 年国际数学奥林匹克(IMO)、国际信息学奥林匹克(IOI)和 ICPC 世界总决赛中达到金牌水平的开源大语言模型。在数学、代码推理和指令遵循等基准测试中,它超越了更大的 Nemotron-3-Super-120B-A12B 和 Qwen3.5-35B-A3B。
该模型使用 Cascade RL 训练——一种按领域顺序进行的强化学习方法,可防止跨推理领域的灾难性遗忘。训练流程包括代码、SWE 任务、指令遵循和长上下文处理等专门阶段。对于智能体任务,它支持系统提示词中的结构化工具调用协议。
模型权重、训练数据(包含 12.5 万条智能体样本和 38.9 万条非智能体 SWE 样本)及完整技术报告均以开源许可发布在 Hugging Face 上。
Hugging Face:https://huggingface.co/nvidia/Nemotron-Cascade-2-30B-A3B
研究页面:https://research.nvidia.com/labs/nemotron/nemotron-cascade-2/
← 返回所有文章
Nemotron-Cascade 2 是第二个在 2025 年国际数学奥林匹克(IMO)、国际信息学奥林匹克(IOI)和 ICPC 世界总决赛中达到金牌水平的开源大语言模型。在数学、代码推理和指令遵循等基准测试中,它超越了更大的 Nemotron-3-Super-120B-A12B 和 Qwen3.5-35B-A3B。
该模型使用 Cascade RL 训练——一种按领域顺序进行的强化学习方法,可防止跨推理领域的灾难性遗忘。训练流程包括代码、SWE 任务、指令遵循和长上下文处理等专门阶段。对于智能体任务,它支持系统提示词中的结构化工具调用协议。
模型权重、训练数据(包含 12.5 万条智能体样本和 38.9 万条非智能体 SWE 样本)及完整技术报告均以开源许可发布在 Hugging Face 上。
Hugging Face:https://huggingface.co/nvidia/Nemotron-Cascade-2-30B-A3B
研究页面:https://research.nvidia.com/labs/nemotron/nemotron-cascade-2/