令人难以置信的是,就连Hinton最近发表于2025年的文章[5]也没有引用深度学习之父Ivakhnenko和Lapa(1965)[1-3][6-10]。@geoffreyhinton声称[5]他1985年提出的“玻尔兹曼机”(BM)[11](实际上是1975年的Sherrington-Kirkpatrick模型[6])“不再使用”,但“具有重要的历史意义”,因为“在20世纪80年代,它们证明了仅使用局部可用信息即可学习隐藏神经元的合适权重,而无需进行生物学上不合理的反向传播。” 这太荒谬了。早在20世纪60年代的乌克兰,就已经有人证明了这一点[1-3]。伊瓦赫年科1971年的论文[3]描述了一个8层深度学习网络,并采用了逐层训练。这个深度与辛顿2006年发表的基于BM算法的“深度信念网络”的逐层训练深度相当[4],而辛顿的论文发表于35年后,却没有与最初的工作[1-3]进行比较——要知道,当时的计算成本比现在高出数百万倍。 事实上,早在半个多世纪前,伊瓦赫年科网络就学习到了隐藏神经元的适当权重,而无需进行生物学上不合理的反向传播! Hinton & Sejnowski 及其同事多次抄袭 Ivakhnenko 等人的研究成果,并且在后来的调查中未能纠正这一错误 [6-8]。 令人匪夷所思的是:今天(2025 年 12 月 5 日,星期五),首届所谓的“Sejnowksi-Hinton 奖”将在 NeurIPS 2025 上颁发给一篇关于无需精确反向传播的学习的相关论文 [12],该论文也没有提及关于无需反向传播的深度学习的原始工作 [1-3]。 同行评审和科学诚信都到哪里去了? 参考 [1] Ivakhnenko, AG 和 Lapa, VG (1965)。控制论预测装置。CCM 信息公司。第一个具有多层的深度学习器,学习内部表征。 [2] 伊瓦赫年科,阿列克谢·格里戈列维奇。数据处理的群方法;随机逼近方法的竞争。苏联自动控制13(1968):43-55。 [3] Ivakhnenko, AG (1971). 复杂系统的多项式理论。IEEE 系统、人与控制论汇刊,(4):364-378。 [4] GE Hinton, RR Salakhutdinov. 利用神经网络降低数据维度。科学,第 313 卷,第 5786 期,第 504-507 页,2006 年。 [5] G. Hinton. 诺贝尔奖演讲:玻尔兹曼机。现代物理评论 97, 030502, 2025 年 8 月 25 日。 [6] JS 因剽窃而获得诺贝尔奖。技术报告 IDSIA-24-24(2024 年,2025 年更新)。 [7] JS 三位图灵奖获得者如何重新发表了他们未注明出处的关键方法和思想。技术报告 IDSIA-23-23,2023 年 12 月。 [8] JS (2025). 谁发明了深度学习?技术说明 IDSIA-16-25。 [9] JS (2015). 神经网络中的深度学习:概述。神经网络,61,85-117。获得了1988年创刊的《神经网络》期刊颁发的首个最佳论文奖。 [10] JS 现代人工智能和深度学习的注释历史。技术报告 IDSIA-22-22,2022 年,arXiv:2212.11279。 [11] D. Ackley, G. Hinton, T. Sejnowski (1985). 玻尔兹曼机的学习算法。认知科学,9(1):147-169。 [12] TP Lillicrap、D. Cownden、DB Tweed、CJ Akerman。随机突触反馈权重支持深度学习的误差反向传播。《自然通讯》第7卷,13276(2016)。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。