2026年3月27日ResearchFrameworkRLOpen Source

MetaClaw:すべての会話から学習する自己進化型エージェントフレームワーク

MetaClawは、UNC-Chapel HillのAIMING Labによる新しいオープンソースエージェントフレームワークで、GPUクラスター不要でリアルワールドの会話を通じた継続学習を可能にします。すべてのライブ会話が学習シグナルとなり、オフライン訓練ではなくデプロイメントを通じてエージェントが継続的に改善します。

フレームワークは3つのコアメカニズムで動作します:スキルインジェクションが関連するスキル指示を取得しエージェントのシステムプロンプトに注入して即座の行動改善を実現。スキルエボリューションが各セッションを分析し新しいスキルを自動的に蒸留、RL対応のジャッジモデルが失敗エピソードからスキルを抽出。メタラーニングスケジューラが重み更新をアイドルウィンドウに延期し、アクティブ使用中のエージェントが中断されません。

MetaClawは3つの動作モードをサポートします:Skills Only(プロキシベース、GPU不要)、RL Mode(継続的ファインチューニング)、MadMax Mode(スキル+RLのインテリジェントスケジューリング)。OpenClaw、CoPaw、IronClaw、NemoClawを含む複数のコーディングエージェントと互換性があります。

技術レポートは2026年3月18日にリリースされ、HuggingFace Daily Papersで75アップボートを獲得してトレンド入り。MITライセンスでGitHubスター約2,000です。

GitHub:https://github.com/aiming-lab/MetaClaw
← 前の記事
Cook:Claude Code、Codex、OpenCodeをオーケストレーションするワークフローループCLI
次の記事 →
Perplexity Comet for iOS:エージェンティックAIブラウザがiPhoneに登場
← すべての記事に戻る

Comments

Loading...
>_