嘿 @sama——我明白你的紧急任务是迅速提升 ChatGPT 的性能,以便在关键指标上超越 Gemini 并满足用户需求……然而,这仍然无法解决你的主要问题,那就是有效构建大型 LLM 已经不再具有差异化优势…… 我认为OpenAI仍有潜力比大型科技公司发展得更快,但需要的不仅仅是加大力度和专注度,还需要一些新的想法…… 如果您有兴趣更深入、更全面地思考如何实现通用人工智能(AGI)——而且既然您说过希望OpenAI更加开放——您不妨考虑将GPT-6与我们在Hyperon中的一些新理念相结合…… https://t.co/GrY14xdtZo 如果从反向传播转向预测/因果编码,你可能会发现你可以创建一个持续学习的 Transformer 神经网络,从而结束人为区分推理模型与训练模型以及批量训练的混乱局面。 与其通过 RAG 和 API 人为地添加额外的工具,不如将 Transformer 嵌入到基于理论的集成认知架构(Hyperon)中,以及逻辑定理证明器、进化程序学习、非线性动态注意力分配等。 要让所有这些技术大规模有效运行,还有很多工作要做,还有很多细节需要解决——但如果你真的想实现通用人工智能(AGI)(然后是通用智能系统ASI),不仅仅是越来越大的逻辑层级模型(LLM)无法实现,任何以LLM*为核心*的认知架构都无法实现……尽管LLM绝对可以成为非常有价值的组成部分…… 哦,有了这些工具,我们也可以在去中心化网络上构建通用人工智能(AGI)(我们可以使用Hyerpon AGI设计的核心思想语言MeTTa作为智能合约语言)——所以你不一定需要花费数万亿美元来建设自己的单体基础设施……当然,更多的硬件会有帮助,但它可以分布在任何地方 ;) https://t.co/s4QJgo7366 是的,所有这些功能都还不成熟,尚未达到产品就绪状态——但核心基础设施在几个月前就已经具备可扩展性了……而且,在你最初加入 OpenAI 的时候,Transformer 模型也还没有成熟,达到产品就绪状态,对吧? 只是说说而已…… 当然,我并不完全指望你会接受我的提议,帮助你将我们的开源工具集成到你的技术栈中……但如果你不接受,那么几年后,当我们真正推出开放且去中心化的通用人工智能(AGI)时,我会把这条旧消息发给你,然后微笑 ;)……
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。