[開源推薦] LLM Council: Andrej Karpathy 一個週末"Vibe Coding" 的項目,透過多模型協作提升AI 回答品質。想像一個虛擬「理事會」場景,多個AI 模型圍坐圓桌,討論使用者查詢,從初始回應到最終合成。 Karpathy 早期的想法:使用LLM 輔助閱讀,並預測未來寫作將更注重「讓LLM 理解」而非單純面向人類。這個項目正是這一理念的實踐擴展,將多個LLM 組合成“理事會”,模擬集體審議過程。 Karpathy 觀察到,模型間互評時常「謙虛」認可他人輸出,這揭示了LLM 整合設計的潛力——一個尚未充分探索的領域。 GitHub 倉庫:llm-council https://t.co/yFBqjm4IVU 本地運行的Web 應用,模擬“多模型AI 顧問委員會”,針對複雜查詢(如閱讀書籍章節)產生更可靠、洞察性的回應。透過OpenRouter API 存取多個LLM,避免單一模型的偏差。專案程式碼簡潔(Python 後端+ React 前端),易於自訂,強調實驗性而非生產級穩健性。 主要功能· 多模型並行回應:使用者查詢同時分發給理事會模型,顯示側邊回應視圖,以便於比較。 · 匿名互評機制:模型審查彼此輸出(隱藏身分),基於準確性和深度評分。這步驟有趣地揭露模型「自我認知」差異。 · 主席合成:指定模型整合排名結果,輸出最終答案。 · 本機儲存:對話歷史保存在JSON 文件,以便於回顧。 工作流程(三階段) 1. 第一階段:初始意見查詢發送至所有模型(如GPT-5.1、Gemini-3-Pro、Claude-Sonnet-4.5、Grok-4),每個模型獨立產生回應。介面顯示並排卡片,突出差異(如GPT 更詳盡,Gemini 更精煉)。 2. 第二階段:檢視與排名每個模型收到匿名回應集,評估並排序他人輸出。範例提示鼓勵客觀性:「哪個最準確?哪個提供最佳洞見?」 這步揭示模型偏好,常有「跨模型讚譽」現象。 3. 第三階段:最終響應主席模型(預設Gemini-3-Pro)接收全部分析,合成簡潔輸出,標註來源排名。結果往往更平衡,減少冗餘。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
![[開源推薦] LLM Council: Andrej Karpathy 一個週末"Vibe Coding" 的項目,透過多模型協作提升AI 回答品質。想像一個虛擬「理事會」場景,多個AI 模型圍坐圓桌,討論使用者查詢,從初始回應到最終合成。](https://pbs.twimg.com/media/G6evYOqaoAAw6nm.jpg)