NVIDIA、オープンウェイト30Bエージェント型モデル「Nemotron-Cascade 2」をリリース——アクティブパラメータはわずか3B
NVIDIAが、アクティブパラメータわずか3Bで強力な推論とエージェント能力を発揮する30B Mixture-of-Expertsオープンウェイトモデル「Nemotron-Cascade 2」をリリースした。典型的なフロンティアモデルのサイズのごく一部で高い性能を実現する。
Nemotron-Cascade 2は、2025年国際数学オリンピック(IMO)、国際情報オリンピック(IOI)、ICPC世界大会でゴールドメダルレベルの性能を達成した2番目のオープンウェイトLLMである。より大規模なNemotron-3-Super-120B-A12BやQwen3.5-35B-A3Bを数学、コード推論、命令追従ベンチマークで上回っている。
モデルはCascade RL(推論ドメイン間の壊滅的忘却を防止する逐次的・ドメイン別強化学習アプローチ)を使用して訓練された。パイプラインにはコード、SWEタスク、命令追従、長文コンテキスト処理の専門ステージが含まれる。エージェントタスクについては、システムプロンプト内で構造化されたツール呼び出しプロトコルをサポートしている。
モデルウェイト、訓練データ(エージェント型125K+非エージェント型389KのSWEサンプルを含む)、および完全な技術レポートがHugging Faceでオープンライセンスの下で公開されている。
Hugging Face:https://huggingface.co/nvidia/Nemotron-Cascade-2-30B-A3B
研究ページ:https://research.nvidia.com/labs/nemotron/nemotron-cascade-2/
← すべての記事に戻る
Nemotron-Cascade 2は、2025年国際数学オリンピック(IMO)、国際情報オリンピック(IOI)、ICPC世界大会でゴールドメダルレベルの性能を達成した2番目のオープンウェイトLLMである。より大規模なNemotron-3-Super-120B-A12BやQwen3.5-35B-A3Bを数学、コード推論、命令追従ベンチマークで上回っている。
モデルはCascade RL(推論ドメイン間の壊滅的忘却を防止する逐次的・ドメイン別強化学習アプローチ)を使用して訓練された。パイプラインにはコード、SWEタスク、命令追従、長文コンテキスト処理の専門ステージが含まれる。エージェントタスクについては、システムプロンプト内で構造化されたツール呼び出しプロトコルをサポートしている。
モデルウェイト、訓練データ(エージェント型125K+非エージェント型389KのSWEサンプルを含む)、および完全な技術レポートがHugging Faceでオープンライセンスの下で公開されている。
Hugging Face:https://huggingface.co/nvidia/Nemotron-Cascade-2-30B-A3B
研究ページ:https://research.nvidia.com/labs/nemotron/nemotron-cascade-2/
Comments