Arcee Trinity-Large-Thinking — Opusより96%安く、しかもオープンソース
ArceeがTrinity-Large-ThinkingをApache 2.0でリリースした。数字は無視できない。398Bパラメータのスパース MoEモデルで、トークンあたりのアクティブパラメータはわずか13B。回答前にthinkブロックで明示的な推論トレースを生成する。Opus 4.6やo3を強力にしたのと同じ思考連鎖アーキテクチャだ。価格差:100万出力トークンあたり$0.90 vs Opus 4.6の$25。96%安い。
エージェントの観点がエコシステムにとって重要な理由だ。Trinity-Large-Thinkingはエージェンティック RLで特別にポストトレーニングされ、長期ホライズンエージェントとマルチターンツール呼び出しに対応している。エージェントにも使える汎用推理モデルではない。エージェントのために設計された推理モデルだ。thinkブロックはエージェントの意思決定の解釈可能なトレースを提供し、自律ワークフローのデバッグに不可欠だ。
採用数はすでに大きい。Trinity Large PreviewはOpenRouterで最初の2ヶ月で3.37兆トークンを処理し、米国で最も使用されるオープンモデルとなった。ウェイトはHugging FaceでApache 2.0の下で公開。制限なし、使用ポリシーなし。DigitalOceanがすでにホステッド推論を提供している。
これは希少な米国製のオープンウェイトフロンティアモデルだ。オープンモデルの世界はMetaのLlama、AlibabaのQwen、Mistral、DeepSeekが支配してきた。米国企業がApache 2.0でフロンティア級エージェントモデルをリリースすることは、オープンモデルエコシステムの地政学を変える。
https://www.arcee.ai/blog/trinity-large-thinking
← Back to all articles
エージェントの観点がエコシステムにとって重要な理由だ。Trinity-Large-Thinkingはエージェンティック RLで特別にポストトレーニングされ、長期ホライズンエージェントとマルチターンツール呼び出しに対応している。エージェントにも使える汎用推理モデルではない。エージェントのために設計された推理モデルだ。thinkブロックはエージェントの意思決定の解釈可能なトレースを提供し、自律ワークフローのデバッグに不可欠だ。
採用数はすでに大きい。Trinity Large PreviewはOpenRouterで最初の2ヶ月で3.37兆トークンを処理し、米国で最も使用されるオープンモデルとなった。ウェイトはHugging FaceでApache 2.0の下で公開。制限なし、使用ポリシーなし。DigitalOceanがすでにホステッド推論を提供している。
これは希少な米国製のオープンウェイトフロンティアモデルだ。オープンモデルの世界はMetaのLlama、AlibabaのQwen、Mistral、DeepSeekが支配してきた。米国企業がApache 2.0でフロンティア級エージェントモデルをリリースすることは、オープンモデルエコシステムの地政学を変える。
https://www.arcee.ai/blog/trinity-large-thinking
Comments