놀랍게도 Hinton의 최근 2025년 논문[5]에서도 딥 러닝의 아버지(1965)인 Ivakhnenko & Lapa[1-3][6-10]를 인용하지 못했습니다. @geoffreyhinton은 자신의 1985년 "볼츠만 머신(BM)"[11](실제로는 1975년 Sherrington-Kirkpatrick 모델[6])이 "더 이상 사용되지 않지만" "1980년대에 생물학적으로 불가능한 역방향 패스 없이도 지역적으로 이용 가능한 정보만을 사용하여 숨겨진 뉴런에 적합한 가중치를 학습할 수 있음을 입증했기 때문에" "역사적으로 중요했다"고 주장합니다. 말도 안 됩니다. 이는 이미 20년 전인 1960년대 우크라이나에서 시연된 바 있습니다[1-3]. Ivakhnenko의 1971년 논문[3]은 8개 계층과 계층별 학습을 갖춘 딥 러닝 네트워크를 설명했습니다. 이 깊이는 Hinton의 BM 기반 2006년 "딥 빌리프 네트워크(Deep Belief Networks)"의 깊이와 비슷합니다. 이 네트워크는 35년 후에 발표되었으며, 원래 연구[1-3]와는 비교도 되지 않습니다. 당시에는 컴퓨팅 비용이 수백만 배나 더 비쌌습니다. 실제로 반세기 전에 이바크넨코의 네트워크는 생물학적으로 불가능한 역방향 패스를 요구하지 않고도 숨겨진 뉴런에 적합한 가중치를 학습했습니다! Hinton & Sejnowski 및 동료 연구자들은 Ivakhnenko와 다른 연구자들을 반복적으로 표절했으며 이후 조사에서 이를 바로잡지 못했습니다[6-8]. 놀라운 사실: 오늘(2025년 12월 5일 금요일) NeurIPS 2025에서 정확한 역전파 없이 학습하는 것과 관련된 논문에 대해 소위 "Sejnowksi-Hinton Prize"가 수여될 예정입니다. [12] 이 논문에서는 역전파 없이 딥 러닝을 하는 원래 작업 [1-3]에 대해서는 언급하지 않았습니다. 동료 평가와 과학적 정직성은 어디로 갔는가? 참고문헌 [1] Ivakhnenko, AG 및 Lapa, VG(1965). 사이버네틱 예측 장치. CCM Information Corporation. 여러 계층을 갖춘 최초의 딥 러닝 머신으로 내부 표현을 학습합니다. [2] Ivakhnenko, Alexey Grigorevich. 데이터 처리의 그룹 방법; 확률적 근사 방법의 경쟁자. 소련 자동 제어 13(1968): 43-55. [3] Ivakhnenko, AG (1971). 복잡계의 다항식 이론. IEEE 시스템, 인간 및 사이버네틱스 저널, (4):364-378. [4] GE Hinton, RR Salakhutdinov. 신경망을 이용한 데이터의 차원 축소. Science, Vol. 313. no. 5786, pp. 504-507, 2006. [5] G. Hinton. 노벨 강연: 볼츠만 기계. Rev. Mod. Phys. 97, 030502, 2025년 8월 25일. [6] JS 표절에 대한 노벨상. 기술 보고서 IDSIA-24-24(2024, 2025년 업데이트). [7] JS 3명의 튜링상 수상자는 제작자의 이름을 밝히지 않은 주요 방법과 아이디어를 재발행했습니다. 기술 보고서 IDSIA-23-23, 2023년 12월. [8] JS (2025). 딥러닝을 발명한 사람은 누구입니까? 기술 참고 자료 IDSIA-16-25. [9] JS (2015). 신경망에서의 딥러닝: 개요. Neural Networks, 61, 85-117. 1988년에 창간된 저널 Neural Networks에서 최초로 최우수 논문상을 수상했습니다. [10] JS 주석이 달린 현대 AI 및 딥 러닝의 역사. 기술 보고서 IDSIA-22-22, 2022, arXiv:2212.11279. [11] D. Ackley, G. Hinton, T. Sejnowski(1985). 볼츠만 머신을 위한 학습 알고리즘. 인지 과학, 9(1):147-169. [12] TP Lillicrap, D. Cownden, DB Tweed, CJ Akerman. 무작위 시냅스 피드백 가중치는 딥 러닝을 위한 오류 역전파를 지원합니다. Nature Communications vol. 7, 13276 (2016).
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.