[オープンソース推奨] LLM Council: Andrej Karpathy氏による週末プロジェクト「Vibe Coding」は、複数モデルの連携を通してAIの応答品質を向上させます。複数のAIモデルが円卓を囲み、ユーザーからの問い合わせについて、最初の応答から最終的な統合まで議論する仮想「評議会」のシナリオを想像してみてください。 カルパシー氏の以前の構想は、LLMを用いて読解力を向上させ、将来の文章作成は単に人間中心であることよりも「LLMを理解しやすくする」ことに重点を置くようになると予測することでした。本プロジェクトはこの構想の実際的な拡張であり、複数のLLMを「評議会」に統合することで、集団的な審議プロセスをシミュレートします。カルパシー氏は、モデル間の相互評価がしばしば他のモデルの出力を「謙虚に」認めていることに気づき、統合型LLM設計の可能性を明らかにしました。これはまだ十分に探求されていない分野です。 GitHubリポジトリ: llm-council https://t.co/yFBqjm4IVU ローカルで実行されるウェブアプリケーションで、「マルチモデルAIアドバイザリボード」をシミュレートし、複雑なクエリ(例えば書籍の章を読むなど)に対して、より信頼性が高く洞察力に富んだ応答を生成します。OpenRouter APIを介して複数のLLMに接続することで、単一モデルのバイアスを回避します。このプロジェクトは簡潔なコード(Pythonバックエンド+Reactフロントエンド)で、カスタマイズが容易で、本番環境レベルの堅牢性よりも実験的な堅牢性を重視しています。 主な機能: マルチモデルの並列応答: ユーザークエリは評議会モデルに同時に配信され、応答の側面ビューが表示されるため、簡単に比較できます。 • 匿名ピアレビューメカニズム:モデルは互いの出力を(身元を明かさずに)レビューし、精度と深度に基づいてスコア付けします。このステップは、興味深いことに、モデルの「自己認識」の違いを明らかにします。 • 議長合成:ランキング結果を統合し、最終的な答えを出力するモデルを指定します。 • ローカル ストレージ: 会話履歴は JSON ファイルに保存され、簡単に確認できます。 ワークフロー(3段階) 1. 第一段階:初期の意見クエリがすべてのモデル(例:GPT-5.1、Gemini-3-Pro、Claude-Sonnet-4.5、Grok-4)に送信され、各モデルは独立して応答を生成します。インターフェースには、相違点(例:GPTはより詳細、Geminiはより簡潔)を強調表示するカードが並べて表示されます。 2. 第2段階:レビューとランキング。各モデルは匿名の回答セットを受け取り、他のモデルの出力を評価し、ランキング付けします。例えば、「どれが最も正確ですか?どれが最も優れた洞察を提供していますか?」といった質問が客観性を促すため、このステップではモデルの好みが明らかになり、「モデル間の称賛」が行われることがよくあります。 3. 第三段階:最終的なレスポンスチェアマンモデル(デフォルトのGemini-3-Pro)は、すべての分析を受け取り、簡潔な出力を統合し、ソースランキングにラベルを付けます。結果はよりバランスが取れ、冗長性が削減されることが多いです。
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。
![[オープンソース推奨] LLM Council: Andrej Karpathy氏による週末プロジェクト「Vibe Coding」は、複数モデルの連携を通してAIの応答品質を向上させます。複数のAIモデルが円卓を囲み、ユーザーからの問い合わ](https://pbs.twimg.com/media/G6evYOqaoAAw6nm.jpg)