ループデイリー: 2026-04-02
#1
3月31日のautoresearchエコシステムは活発だった。最大のテーマは、autoresearchが純粋なコード最適化から外側へ拡張していること。人々はautoresearchループをKVキャッシュ圧縮、ファイアウォールルールセット、Apple Neural Engineの推論、RL微調整、さらにはフロンティアモデル間の哲学的差異テストにまで向けている。一方、Claude Codeのソースコード流出がエージェントループの議論を支配し、驚くほどシンプルなコアアーキテクチャがコンテキスト管理と権限ロジックの層に包まれていることを明らかにした。本当のシグナルは、再帰的改善ループを実行するハードルが下がり続け、ユースケースがますます予想外になっていること。
#2
@shannholmberg
https://x.com/shannholmberg/status/2038866414057161145
AutoReasonはautoresearchを数値指標で最適化できない領域に拡張する。スコアを登るのではなく、4つのエージェントのループを回す。1つが草稿を書き、1つが修正せず批評だけし、3つ目が批評に基づいて書き直し、4つ目が両方の最良部分を統合する。ブラインド審査パネルが勝者を選び、現在のバージョンを何も上回れなくなるまでループが続く。確認バイアスの蓄積を防ぐため、各エージェントは新鮮なコンテキストを受け取る。ブラインドパネルテストでAutoReasonは35点中35点を獲得。次点の方法は21点。「自分の問題には数字がない」という反論を完全に打ち砕く、今週最も興味深いautoresearchの概念拡張だろう。
https://x.com/shannholmberg/status/2038866414057161145
AutoReasonはautoresearchを数値指標で最適化できない領域に拡張する。スコアを登るのではなく、4つのエージェントのループを回す。1つが草稿を書き、1つが修正せず批評だけし、3つ目が批評に基づいて書き直し、4つ目が両方の最良部分を統合する。ブラインド審査パネルが勝者を選び、現在のバージョンを何も上回れなくなるまでループが続く。確認バイアスの蓄積を防ぐため、各エージェントは新鮮なコンテキストを受け取る。ブラインドパネルテストでAutoReasonは35点中35点を獲得。次点の方法は21点。「自分の問題には数字がない」という反論を完全に打ち砕く、今週最も興味深いautoresearchの概念拡張だろう。
#3
@Hevalon
https://x.com/Hevalon/status/2038977575372951930
autoresearch-rlを構築し、Basilic AIのA100上でGRPO微調整に向けた。1コマンド、15イテレーション、人間の介入ゼロ、インフラ成功率100%。GSM8K pass@1は26%ベースラインから36%に向上。Hevalonによれば、難しかったのは探索アルゴリズムではなくインフラだった。各RLイテレーションにはクリーンなCUDA環境と5-10分のA100時間が必要で、悪いハイパーパラメータは1時間を無駄にする。autoresearchをRL微調整に適用する初めての本格的な試みであり、インフラの課題は現実的だ。ワークステーションでは実行できない。
https://x.com/Hevalon/status/2038977575372951930
autoresearch-rlを構築し、Basilic AIのA100上でGRPO微調整に向けた。1コマンド、15イテレーション、人間の介入ゼロ、インフラ成功率100%。GSM8K pass@1は26%ベースラインから36%に向上。Hevalonによれば、難しかったのは探索アルゴリズムではなくインフラだった。各RLイテレーションにはクリーンなCUDA環境と5-10分のA100時間が必要で、悪いハイパーパラメータは1時間を無駄にする。autoresearchをRL微調整に適用する初めての本格的な試みであり、インフラの課題は現実的だ。ワークステーションでは実行できない。
#4
@dhawalc
https://x.com/dhawalc/status/2038889125814903204
TurboQuant KVキャッシュ圧縮でautoresearchを一晩実行し、FP16に匹敵する生成品質で5.1倍の圧縮を達成。品質損失ゼロ。勝利した構成は3ビットキー、1ビット残差符号、2ビット値、最近のトークン用FP16ウィンドウ。開始時の精度は0/5(完全に機能せず)。6ラウンド後、すべての質問でFP16に一致。突破口はget_mask_sizesの1行のプロトコルバグの発見で、このバグが以前のすべてのテストを無効にしていた。修正後、アルゴリズムの進化が実際に機能した。TurboQuant論文は5倍を約束。Autoresearchは5.1倍を達成した。
https://x.com/dhawalc/status/2038889125814903204
TurboQuant KVキャッシュ圧縮でautoresearchを一晩実行し、FP16に匹敵する生成品質で5.1倍の圧縮を達成。品質損失ゼロ。勝利した構成は3ビットキー、1ビット残差符号、2ビット値、最近のトークン用FP16ウィンドウ。開始時の精度は0/5(完全に機能せず)。6ラウンド後、すべての質問でFP16に一致。突破口はget_mask_sizesの1行のプロトコルバグの発見で、このバグが以前のすべてのテストを無効にしていた。修正後、アルゴリズムの進化が実際に機能した。TurboQuant論文は5倍を約束。Autoresearchは5.1倍を達成した。
#5
@advait_jayant
https://x.com/advait_jayant/status/2039022806243979696
Divergence Explorerはautoresearchをまったく異なる方向に導く。指標の最適化ではなく、フロンティアAIモデルが実際に異なる思考をしているのか、それとも収束しているのかを調査する。OpenGradient上の自律的研究者が倫理、意識、哲学、地政学にわたる320の難問を生成し、GPT-5.2、Claude Opus 4.6、Gemini 2.5 Flash、Grok 4に並列で送信。各回答はTEEエンクレーブで暗号的に封印。結果:自由回答形式の質問では95%の合意。しかしシステムが自ら二択を強制することを学ぶと、合意は33%に低下。人間がモードを切り替えたわけではない。研究者は、モデルが意見を曖昧にできる場合にのみ合意に至ることを自律的に発見した。
https://x.com/advait_jayant/status/2039022806243979696
Divergence Explorerはautoresearchをまったく異なる方向に導く。指標の最適化ではなく、フロンティアAIモデルが実際に異なる思考をしているのか、それとも収束しているのかを調査する。OpenGradient上の自律的研究者が倫理、意識、哲学、地政学にわたる320の難問を生成し、GPT-5.2、Claude Opus 4.6、Gemini 2.5 Flash、Grok 4に並列で送信。各回答はTEEエンクレーブで暗号的に封印。結果:自由回答形式の質問では95%の合意。しかしシステムが自ら二択を強制することを学ぶと、合意は33%に低下。人間がモードを切り替えたわけではない。研究者は、モデルが意見を曖昧にできる場合にのみ合意に至ることを自律的に発見した。
#6
@ryanmart3n
https://x.com/ryanmart3n/status/2039016764982669435
完全に自律的なAI開発の欠けているピースを整理する。Autoresearchはエージェントがモデルを構築すること。Meta-Harnessはエージェントがエージェントを構築すること。しかし、Meta-Measureまたはautobenchmark、つまりエージェントが評価を構築することがまだ必要だ。Ryanのチームはすでに Terminal-Bench 3.0のベンチマーク開発におけるタスク識別部分の自動化を開始しているが、真の解放はタスク生成の解決だと言う。一度evalを自律的に生成できれば、構築-テスト-改善サイクル全体が人間の介入なしに閉じる。
https://x.com/ryanmart3n/status/2039016764982669435
完全に自律的なAI開発の欠けているピースを整理する。Autoresearchはエージェントがモデルを構築すること。Meta-Harnessはエージェントがエージェントを構築すること。しかし、Meta-Measureまたはautobenchmark、つまりエージェントが評価を構築することがまだ必要だ。Ryanのチームはすでに Terminal-Bench 3.0のベンチマーク開発におけるタスク識別部分の自動化を開始しているが、真の解放はタスク生成の解決だと言う。一度evalを自律的に生成できれば、構築-テスト-改善サイクル全体が人間の介入なしに閉じる。
#7
@duanebester
https://x.com/duanebester/status/2038825090792480800
ZigでApple Silicon上のGPUカーネル、ディスパッチ戦略、パイプラインアーキテクチャを自律的に最適化するエージェントを構築。Metal シェーダーの編集、ベンチマーク、改善のコミットを自動で行う。MNISTスループット:407k画像/秒、MLXは82k(5倍遅い)、PyTorch MPSは12k(34倍遅い)。3つとも98%の精度を達成し、差は純粋にスループット。エージェントが発見した主要な最適化:64バッチのコマンドバッファエンコーディング、5エポックごとの検証、バッチ評価用GPUのargmaxカーネル。失敗した実験の要約を記録し、行き止まりを繰り返さない。この記憶の詳細が、玩具ループと本当に複利的に成長するループを分ける鍵だ。
https://x.com/duanebester/status/2038825090792480800
ZigでApple Silicon上のGPUカーネル、ディスパッチ戦略、パイプラインアーキテクチャを自律的に最適化するエージェントを構築。Metal シェーダーの編集、ベンチマーク、改善のコミットを自動で行う。MNISTスループット:407k画像/秒、MLXは82k(5倍遅い)、PyTorch MPSは12k(34倍遅い)。3つとも98%の精度を達成し、差は純粋にスループット。エージェントが発見した主要な最適化:64バッチのコマンドバッファエンコーディング、5エポックごとの検証、バッチ評価用GPUのargmaxカーネル。失敗した実験の要約を記録し、行き止まりを繰り返さない。この記憶の詳細が、玩具ループと本当に複利的に成長するループを分ける鍵だ。
#8
@duanebester
https://x.com/duanebester/status/2039031530232696878
nnzap推論ベンチマークのフォローアップはさらに結果を押し上げた。GPUバッチで158万推論/秒、MLXの9.3倍、PyTorchの3.2倍。CPU単一サンプルレイテンシは884マイクロ秒から21マイクロ秒に低下。すべてZigで実装、ゼロコピー統一メモリ、コンパイル時レイアウト、Metalコンピュートシェーダー。自律エージェントが19の実験を実行し、アセンブリを読み、Metalカーネルを書き、自らの失敗をロールバックした。
https://x.com/duanebester/status/2039031530232696878
nnzap推論ベンチマークのフォローアップはさらに結果を押し上げた。GPUバッチで158万推論/秒、MLXの9.3倍、PyTorchの3.2倍。CPU単一サンプルレイテンシは884マイクロ秒から21マイクロ秒に低下。すべてZigで実装、ゼロコピー統一メモリ、コンパイル時レイアウト、Metalコンピュートシェーダー。自律エージェントが19の実験を実行し、アセンブリを読み、Metalカーネルを書き、自らの失敗をロールバックした。
#9
@detectiveomee
https://x.com/detectiveomee/status/2039020976214557114
autoresearchをファイアウォール最適化に適用し、数学的正確性の証明を付与。システムはLLMに小さな変更を提案させ(ルールの交換、シャドウされたルールの削除、並べ替え)、BDD等価チェッカーが新しいルールセットの動作が同一であることを証明し、トラフィック対応スコアラーがパフォーマンスを測定する。古典アルゴリズムがまず613ルールを190に削減(6秒で69%削減)。次にLLMが古典コードが見逃した45のクロスアクションシャドウを発見し、トラフィック対応の並べ替えで加重マッチ深度をさらに3.5%削減。正直な評価:3.5%は本番環境で10分のOpus APIコールに見合わないかもしれない。しかし、すべての変更に正確性の証明が付く検証済み最適化ループは、探索する価値のあるまったく新しいパターンだ。
https://x.com/detectiveomee/status/2039020976214557114
autoresearchをファイアウォール最適化に適用し、数学的正確性の証明を付与。システムはLLMに小さな変更を提案させ(ルールの交換、シャドウされたルールの削除、並べ替え)、BDD等価チェッカーが新しいルールセットの動作が同一であることを証明し、トラフィック対応スコアラーがパフォーマンスを測定する。古典アルゴリズムがまず613ルールを190に削減(6秒で69%削減)。次にLLMが古典コードが見逃した45のクロスアクションシャドウを発見し、トラフィック対応の並べ替えで加重マッチ深度をさらに3.5%削減。正直な評価:3.5%は本番環境で10分のOpus APIコールに見合わないかもしれない。しかし、すべての変更に正確性の証明が付く検証済み最適化ループは、探索する価値のあるまったく新しいパターンだ。
#10
@christinetyip
https://x.com/christinetyip/status/2039040420286521693
autoresearchを研究問題から実世界のシステム最適化に拡張。結果:Apple Neural EngineでAppleの公式CoreMLアプローチより最大6.31倍高速な推論。注目すべきは、これがループを「モデルトレーニング最適化」レーンから本番推論インフラに持ち出したこと。autoresearchループがベンダー公式実装より6倍の高速化を見つけているなら、ベンダー自身もこれらのループを実行すべきだ。
https://x.com/christinetyip/status/2039040420286521693
autoresearchを研究問題から実世界のシステム最適化に拡張。結果:Apple Neural EngineでAppleの公式CoreMLアプローチより最大6.31倍高速な推論。注目すべきは、これがループを「モデルトレーニング最適化」レーンから本番推論インフラに持ち出したこと。autoresearchループがベンダー公式実装より6倍の高速化を見つけているなら、ベンダー自身もこれらのループを実行すべきだ。
#11
@DeepValueBagger
https://x.com/DeepValueBagger/status/2038788897128198210
OpenClawや既存の深層研究ツールに失望し、ゼロから株式リサーチファーストのagentic AIプラットフォームを構築。核心的な気づき:主要プラットフォームはデータが古く、OpenClawは誰も使わない機能で肥大化し、マルチエージェント処理は半分の時間どのエージェントがどれか混乱する。そこで独自のagenticループを構築し、メモリ、スキル、株式リサーチ用ファーストクラスツール(無料検索、agenticブラウザ、SEC直接アクセス、価格データベース、RAGインデックス、全決算報告とMD&Aファイルの取り込みパイプライン)を備えた。データプラットフォーム構築後、UIのバイブコーディングは簡単だった。
https://x.com/DeepValueBagger/status/2038788897128198210
OpenClawや既存の深層研究ツールに失望し、ゼロから株式リサーチファーストのagentic AIプラットフォームを構築。核心的な気づき:主要プラットフォームはデータが古く、OpenClawは誰も使わない機能で肥大化し、マルチエージェント処理は半分の時間どのエージェントがどれか混乱する。そこで独自のagenticループを構築し、メモリ、スキル、株式リサーチ用ファーストクラスツール(無料検索、agenticブラウザ、SEC直接アクセス、価格データベース、RAGインデックス、全決算報告とMD&Aファイルの取り込みパイプライン)を備えた。データプラットフォーム構築後、UIのバイブコーディングは簡単だった。
#12
@koylanai
https://x.com/koylanai/status/2039027239304433767
ShopifyがワンショットLLMからDSPyとMIPROによる専門化サブエージェントに移行したケーススタディを分析。autoresearchにとって最も重要な発見:小さなモデルと良いアーキテクチャが、大きなモデルと悪いアーキテクチャに勝つ。セルフホストのQwen 3がパイプラインでGPT-5を上回った。MIPROのプロンプト最適化はモノリシックな単一エージェントでは機能しなかったが、専門化サブエージェントでは極めてうまく機能した。アーキテクチャが最適化面を決定する。目標が隔離されたクリーンなモジュールがオプティマイザにクリーンなシグナルを与える。autoresearchループを設計する人すべてに直接適用可能:まずアーキテクチャ、次に最適化。
https://x.com/koylanai/status/2039027239304433767
ShopifyがワンショットLLMからDSPyとMIPROによる専門化サブエージェントに移行したケーススタディを分析。autoresearchにとって最も重要な発見:小さなモデルと良いアーキテクチャが、大きなモデルと悪いアーキテクチャに勝つ。セルフホストのQwen 3がパイプラインでGPT-5を上回った。MIPROのプロンプト最適化はモノリシックな単一エージェントでは機能しなかったが、専門化サブエージェントでは極めてうまく機能した。アーキテクチャが最適化面を決定する。目標が隔離されたクリーンなモジュールがオプティマイザにクリーンなシグナルを与える。autoresearchループを設計する人すべてに直接適用可能:まずアーキテクチャ、次に最適化。
#13
@DanielMiessler
https://x.com/DanielMiessler/status/2039067001243771117
挑発的な初期段階のアイデアを提起:autoresearchが量子暗号のブレークスルーや既存アルゴリズムへの攻撃に適用されることで、暗号通貨がリスクにさらされる可能性がある。より広い主張は、autoresearchが私たちがすべてをいかに原始的に行っているかを明らかにしようとしていること。著名なセキュリティ研究者からの発言であり、情報セキュリティコミュニティが再帰的最適化ループをどれほど真剣に受け止めているかのシグナルとして追跡する価値がある。
https://x.com/DanielMiessler/status/2039067001243771117
挑発的な初期段階のアイデアを提起:autoresearchが量子暗号のブレークスルーや既存アルゴリズムへの攻撃に適用されることで、暗号通貨がリスクにさらされる可能性がある。より広い主張は、autoresearchが私たちがすべてをいかに原始的に行っているかを明らかにしようとしていること。著名なセキュリティ研究者からの発言であり、情報セキュリティコミュニティが再帰的最適化ループをどれほど真剣に受け止めているかのシグナルとして追跡する価値がある。
#14
@OpenBMB
https://x.com/OpenBMB/status/2038987177946980819
清華NLPがCPMobiusを発表。LLMが完全にデータフリーの環境で推論能力を自己進化させるCoach-Playerパラダイム。Coachが数学タスクを生成し、Playerが多数決投票と自己学習で解くことを学ぶ。Coachは動的難易度フィルタリングを使用し、タスクを20-80%の成功率のスイートスポットに維持。進捗駆動の報酬により、CoachはPlayerが実際に賢くなった場合にのみ勝つ。Qwen2.5-Math-7Bで全体精度が4.9ポイント、分布外精度が5.4ポイント向上。これはトレーニングパイプライン自体に適用されたautoresearch:外部データゼロ、完全自律、既存の教師なし手法を超越。
https://x.com/OpenBMB/status/2038987177946980819
清華NLPがCPMobiusを発表。LLMが完全にデータフリーの環境で推論能力を自己進化させるCoach-Playerパラダイム。Coachが数学タスクを生成し、Playerが多数決投票と自己学習で解くことを学ぶ。Coachは動的難易度フィルタリングを使用し、タスクを20-80%の成功率のスイートスポットに維持。進捗駆動の報酬により、CoachはPlayerが実際に賢くなった場合にのみ勝つ。Qwen2.5-Math-7Bで全体精度が4.9ポイント、分布外精度が5.4ポイント向上。これはトレーニングパイプライン自体に適用されたautoresearch:外部データゼロ、完全自律、既存の教師なし手法を超越。
#15
@JIACHENLIU8
https://x.com/JIACHENLIU8/status/2038833454083883237
見落としやすい明確な区別を提示。Autoresearchは研究パイプラインについて、meta-harnessはスキャフォールドのエンドツーエンド最適化について。Meta-harnessの方が困難で、信用割り当てがコード履歴とすべての先行トレースにまたがる。重要な問いは:評価者がどの変更が利益をもたらしたかについて自信を持って間違っている場合どうなるか。これはエージェントの自己改善における信用割り当て問題であり、まだ誰も解決していない。
https://x.com/JIACHENLIU8/status/2038833454083883237
見落としやすい明確な区別を提示。Autoresearchは研究パイプラインについて、meta-harnessはスキャフォールドのエンドツーエンド最適化について。Meta-harnessの方が困難で、信用割り当てがコード履歴とすべての先行トレースにまたがる。重要な問いは:評価者がどの変更が利益をもたらしたかについて自信を持って間違っている場合どうなるか。これはエージェントの自己改善における信用割り当て問題であり、まだ誰も解決していない。
#16
@NandinoAI
https://x.com/NandinoAI/status/2038818569413156979
自己改善コーディングツールへの鋭い批判。改善指標は通常「生成されたコードが自分のテストに合格する」ことで、これは閉じたフィードバックループだ。エージェントは自分自身を満足させることは上手くなるが、ユーザーを満足させることは上手くならない。本当のブレークスルーは、改善シグナルがモデル自身の採点ではなく本番メトリクスから来る時に起こる。これはあらゆるautoresearchセットアップの根本的な妥当性の問い:あなたの指標は本当にあなたが気にしていることを測定しているか。
https://x.com/NandinoAI/status/2038818569413156979
自己改善コーディングツールへの鋭い批判。改善指標は通常「生成されたコードが自分のテストに合格する」ことで、これは閉じたフィードバックループだ。エージェントは自分自身を満足させることは上手くなるが、ユーザーを満足させることは上手くならない。本当のブレークスルーは、改善シグナルがモデル自身の採点ではなく本番メトリクスから来る時に起こる。これはあらゆるautoresearchセットアップの根本的な妥当性の問い:あなたの指標は本当にあなたが気にしていることを測定しているか。
#17
@drewsky1
https://x.com/drewsky1/status/2039007552243896476
3090で異なるプロファイルを使って異なるautoresearchプロジェクトを一晩実行。1つは論文と仕様をハードウェア設計の最適化ループに投入。もう1つはAPI統合、検索クエリ最適化、プラットフォームTOSコンプライアンスチェックを含む製品プロトタイプを管理。どちらもOpusで書いたカスタムスキルを使用。これはautoresearchがコード以外のアプリケーションに使用されている実例:ハードウェア設計最適化と製品開発ワークフローが24時間365日稼働。
https://x.com/drewsky1/status/2039007552243896476
3090で異なるプロファイルを使って異なるautoresearchプロジェクトを一晩実行。1つは論文と仕様をハードウェア設計の最適化ループに投入。もう1つはAPI統合、検索クエリ最適化、プラットフォームTOSコンプライアンスチェックを含む製品プロトタイプを管理。どちらもOpusで書いたカスタムスキルを使用。これはautoresearchがコード以外のアプリケーションに使用されている実例:ハードウェア設計最適化と製品開発ワークフローが24時間365日稼働。
#18
@jaredgoering
https://x.com/jaredgoering/status/2039019004510056737
オープンソースのML検索エンジンをスマートフォンのタップデータからのパーキンソン病検出に向けた。2分以内に85の実験を実行、標準autoresearchの少なくとも10倍高速。最も優れた公表済みの交絡因子制御結果を8.8パーセントポイント上回った。医学AI研究はautoresearchが大きなインパクトを持ちうる分野だ。指標(診断精度)が明確に定義され、モデルアーキテクチャと特徴の探索空間が膨大だからだ。
https://x.com/jaredgoering/status/2039019004510056737
オープンソースのML検索エンジンをスマートフォンのタップデータからのパーキンソン病検出に向けた。2分以内に85の実験を実行、標準autoresearchの少なくとも10倍高速。最も優れた公表済みの交絡因子制御結果を8.8パーセントポイント上回った。医学AI研究はautoresearchが大きなインパクトを持ちうる分野だ。指標(診断精度)が明確に定義され、モデルアーキテクチャと特徴の探索空間が膨大だからだ。
#19
@vin_asia
https://x.com/vin_asia/status/2038979358648639537
古いGPUでautoresearchループを24時間休みなく実行し、コード、SQLクエリ、ビジネスプロセスを継続的に最適化、すべて無人。一晩ループを実行する場合、トークン/秒の速度は無関係になる。これは「静かなデプロイメント」パターン:人々はすでにautoresearchを研究実験だけでなく、ビジネスプロセス最適化のための常時稼働インフラとして運用している。
https://x.com/vin_asia/status/2038979358648639537
古いGPUでautoresearchループを24時間休みなく実行し、コード、SQLクエリ、ビジネスプロセスを継続的に最適化、すべて無人。一晩ループを実行する場合、トークン/秒の速度は無関係になる。これは「静かなデプロイメント」パターン:人々はすでにautoresearchを研究実験だけでなく、ビジネスプロセス最適化のための常時稼働インフラとして運用している。
#20
エコプロダクトレーダー
#21
@PrimeIntellect
https://x.com/PrimeIntellect/status/2038787571795599549
auto-researchの精神から生まれた優れたプロジェクトとして、Paradigm AIのFlywheelを紹介。PrimeIntellectはautoresearchの概念に基づいて構築されたツールのエコシステムを追跡しており、Flywheelは最適化ループを実行するためのより構造化されたフレームワークとして注目を集めている。
https://x.com/PrimeIntellect/status/2038787571795599549
auto-researchの精神から生まれた優れたプロジェクトとして、Paradigm AIのFlywheelを紹介。PrimeIntellectはautoresearchの概念に基づいて構築されたツールのエコシステムを追跡しており、Flywheelは最適化ループを実行するためのより構造化されたフレームワークとして注目を集めている。
#22
@needhelptho
https://x.com/needhelptho/status/2039030060783636991
Karpathyのautoresearchの汎用化バージョンをオープンソース化。任意のコードを最適化できる。特定の研究ツールから汎用コードオプティマイザーへの移行は自然な進化であり、オープンソース版は参入障壁を下げる。
https://x.com/needhelptho/status/2039030060783636991
Karpathyのautoresearchの汎用化バージョンをオープンソース化。任意のコードを最適化できる。特定の研究ツールから汎用コードオプティマイザーへの移行は自然な進化であり、オープンソース版は参入障壁を下げる。
#23
@iuditg
https://x.com/iuditg/status/2039030066496332171
/autoresearchコマンドの大幅アップデートを予告。何が変わるかの詳細はまだないが、ツールが活発に開発されていることはコミュニティの需要が本物であることを示している。
https://x.com/iuditg/status/2039030066496332171
/autoresearchコマンドの大幅アップデートを予告。何が変わるかの詳細はまだないが、ツールが活発に開発されていることはコミュニティの需要が本物であることを示している。
#24
@AI_Boilerplate
https://x.com/AI_Boilerplate/status/2038881727397888186
Autoresearch Agentを無料のエージェントスキルとしてリリース。promptcreek経由で1コマンドでインストール可能。ゼロからインフラを構築したくない人にもautoresearchを使えるようにするパッケージングだ。
https://x.com/AI_Boilerplate/status/2038881727397888186
Autoresearch Agentを無料のエージェントスキルとしてリリース。promptcreek経由で1コマンドでインストール可能。ゼロからインフラを構築したくない人にもautoresearchを使えるようにするパッケージングだ。
Comments