嘿 @sama——我明白你的緊急任務是迅速提升 ChatGPT 的性能,以便在關鍵指標上超越 Gemini 並滿足用戶需求……然而,這仍然無法解決你的主要問題,那就是有效構建大型 LLM 已經不再具有差異化優勢…… 我認為OpenAI仍有潛力比大型科技公司發展得更快,但需要的不僅是加強和專注度,還需要一些新的想法… 如果您有興趣更深入、更全面地思考如何實現通用人工智慧(AGI)——而且既然您說過希望OpenAI更加開放——您不妨考慮將GPT-6與我們在Hyperon中的一些新理念相結合… https://t.co/GrY14xdtZo 如果從反向傳播轉向預測/因果編碼,你可能會發現你可以創建一個持續學習的 Transformer 神經網絡,從而結束人為區分推理模型與訓練模型以及批量訓練的混亂局面。 與其透過 RAG 和 API 人為地添加額外的工具,不如將 Transformer 嵌入到基於理論的整合認知架構(Hyperon)中,以及邏輯定理證明器、演化程式學習、非線性動態注意力分配等。 要讓所有這些技術大規模有效運行,還有很多工作要做,還有很多細節需要解決——但如果你真的想實現通用人工智能(AGI)(然後是通用智能係統ASI),不僅僅是越來越大的邏輯層級模型(LLM)無法實現,任何以LLM*為核心*的認知架構都無法實現……儘管LLM絕對可以成為非常有價值的組成部分…… 哦,有了這些工具,我們也可以在去中心化網絡上構建通用人工智能(AGI)(我們可以使用Hyerpon AGI設計的核心思想語言MeTTa作為智能合約語言)——所以你不一定需要花費數萬億美元來建設自己的單體基礎設施……當然,更多的硬件會有幫助,但它可以分佈在任何地方 ;) https://t.co/s4QJgo7366 是的,所有這些功能都還不成熟,尚未達到產品就緒狀態——但核心基礎設施在幾個月前就已經具備可擴展性了……而且,在你最初加入 OpenAI 的時候,Transformer 模型也還沒有成熟,達到產品就緒狀態,對吧? 只是說說而已… 當然,我並不完全指望你會接受我的提議,幫助你將我們的開源工具集成到你的技術棧中……但如果你不接受,那麼幾年後,當我們真正推出開放且去中心化的通用人工智能(AGI)時,我會把這條舊消息發給你,然後微笑 ;)……
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。