Increíblemente, incluso el reciente artículo de Hinton de 2025 [5] no cita a Ivakhnenko y Lapa, los padres del aprendizaje profundo (1965) [1-3][6-10]. @geoffreyhinton afirma [5] que sus "máquinas de Boltzmann" (BM) de 1985 [11] (en realidad, modelos de Sherrington-Kirkpatrick de 1975 [6]) "ya no se utilizan", pero "fueron históricamente importantes" porque "en la década de 1980, demostraron que era posible aprender pesos apropiados para neuronas ocultas utilizando solo información disponible localmente SIN requerir un pase hacia atrás biológicamente improbable". Eso es ridículo. Esto ya se había demostrado dos décadas antes, en la década de 1960 en Ucrania [1-3]. El artículo de Ivakhnenko de 1971 [3] describió una red de aprendizaje profundo con ocho capas y entrenamiento por capas. Esta profundidad es comparable a la de las "redes de creencias profundas" de Hinton de 2006, basadas en BM y con entrenamiento por capas [4], publicadas 35 años después, sin comparación con el trabajo original [1-3], realizado cuando la computación era millones de veces más costosa. Y, de hecho, hace más de medio siglo, la red de Ivakhnenko aprendió pesos apropiados para las neuronas ocultas ¡SIN requerir un pase hacia atrás biológicamente inverosímil! Hinton, Sejnowski y colaboradores han plagiado repetidamente a Ivakhnenko y a otros, y no han logrado rectificar esto en estudios posteriores [6-8]. Dato curioso: hoy (viernes 5 de diciembre de 2025) se entregará el primer premio llamado "Sejnowksi-Hinton" en NeurIPS 2025 por un artículo relacionado sobre aprendizaje sin retropropagación exacta [12] que tampoco mencionó el trabajo original sobre aprendizaje profundo sin pase hacia atrás [1-3]. ¿Qué pasó con la revisión por pares y la honestidad científica? REFERENCIAS [1] Ivakhnenko, AG y Lapa, VG (1965). Dispositivos de predicción cibernética. CCM Information Corporation. Primeros dispositivos de aprendizaje profundo funcionales con múltiples capas, que aprenden representaciones internas. [2] Ivakhnenko, Alexey Grigorevich. El método de grupo para el manejo de datos; un rival del método de aproximación estocástica. Soviet Automatic Control 13 (1968): 43-55. [3] Ivakhnenko, AG (1971). Teoría polinómica de sistemas complejos. IEEE Transactions on Systems, Man and Cybernetics, (4):364-378. [4] GE Hinton, RR Salakhutdinov. Reducción de la dimensionalidad de los datos con redes neuronales. Science, vol. 313, n.º 5786, págs. 504-507, 2006. [5] G. Hinton. Conferencia Nobel: Máquinas de Boltzmann. Rev. Mod. Phys. 97, 030502, 25 de agosto de 2025. [6] JS Premio Nobel por Plagio. Informe Técnico IDSIA-24-24 (2024, actualizado 2025). [7] JS Cómo 3 ganadores del premio Turing republicaron métodos e ideas clave cuyos creadores no reconocieron. Informe Técnico IDSIA-23-23, diciembre de 2023. [8] JS (2025). ¿Quién inventó el aprendizaje profundo? Nota técnica IDSIA-16-25. [9] JS (2015). Aprendizaje profundo en redes neuronales: Una visión general. Neural Networks, 61, 85-117. Obtuvo el primer Premio al Mejor Artículo otorgado por la revista Neural Networks, fundada en 1988. [10] Historia anotada de la IA moderna y el aprendizaje profundo (JS). Informe técnico IDSIA-22-22, 2022, arXiv:2212.11279. [11] D. Ackley, G. Hinton, T. Sejnowski (1985). Un algoritmo de aprendizaje para máquinas de Boltzmann. Cognitive Science, 9(1):147-169. [12] TP Lillicrap, D. Cownden, DB Tweed, CJ Akerman. Los pesos de retroalimentación sináptica aleatorios facilitan la retropropagación de errores para el aprendizaje profundo. Nature Communications, vol. 7, 13276 (2016).
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.