Incrivelmente, mesmo o recente artigo de Hinton de 2025 [5] não cita Ivakhnenko & Lapa, os pais do aprendizado profundo (1965) [1-3][6-10]. @geoffreyhinton afirma [5] que suas "máquinas de Boltzmann" (MBs) de 1985 [11] (na verdade, modelos de Sherrington-Kirkpatrick de 1975 [6]) "não são mais usadas", mas "foram historicamente importantes" porque "na década de 1980, demonstraram que era possível aprender pesos apropriados para neurônios ocultos usando apenas informações disponíveis localmente SEM exigir uma passagem reversa biologicamente implausível". Isso é ridículo. Isso já havia sido demonstrado duas décadas antes, na década de 1960, na Ucrânia [1-3]. O artigo de Ivakhnenko de 1971 [3] descreveu uma rede de aprendizado profundo com 8 camadas e treinamento camada a camada. Essa profundidade é comparável à profundidade das "redes de crença profunda" baseadas em BM de Hinton de 2006 com treinamento camada a camada [4], publicadas 35 anos depois sem comparação com o trabalho original [1-3] - feito quando a computação era milhões de vezes mais cara. E, de fato, há mais de meio século, a rede de Ivakhnenko aprendeu pesos apropriados para neurônios ocultos SEM exigir uma passagem reversa biologicamente implausível! Hinton & Sejnowski & colaboradores plagiaram repetidamente Ivakhnenko e outros, e não conseguiram retificar isso em pesquisas posteriores [6-8]. Fato curioso: hoje (sexta-feira, 5 de dezembro de 2025), o primeiro "Prêmio Sejnowksi-Hinton" será entregue no NeurIPS 2025 por um artigo relacionado sobre aprendizado sem retropropagação exata [12], que também não mencionou o trabalho original sobre aprendizado profundo sem retropropagação [1-3]. O que aconteceu com a revisão por pares e a honestidade científica? REFERÊNCIAS [1] Ivakhnenko, AG e Lapa, VG (1965). Dispositivos de previsão cibernética. CCM Information Corporation. Primeiros Deep Learners funcionais com muitas camadas, aprendendo representações internas. [2] Ivakhnenko, Alexey Grigorevich. O método de grupo de tratamento de dados; um rival do método de aproximação estocástica. Controle Automático Soviético 13 (1968): 43-55. [3] Ivakhnenko, AG (1971). Teoria polinomial de sistemas complexos. IEEE Transactions on Systems, Man and Cybernetics, (4):364-378. [4] GE Hinton, RR Salakhutdinov. Reduzindo a dimensionalidade de dados com redes neurais. Science, Vol. 313. no. 5786, pp. 504-507, 2006. [5] G. Hinton. Palestra Nobel: Máquinas de Boltzmann. Rev. Mod. Phys. 97, 030502, 25 de agosto de 2025. [6] JS Um Prêmio Nobel para o Plágio. Relatório Técnico IDSIA-24-24 (2024, atualizado em 2025). [7] JS Como 3 laureados com o prêmio Turing republicaram métodos e ideias importantes cujos criadores eles não creditaram. Relatório Técnico IDSIA-23-23, Dez 2023. [8] JS (2025). Quem inventou o aprendizado profundo? Nota técnica IDSIA-16-25. [9] JS (2015). Aprendizado profundo em redes neurais: Uma visão geral. Redes Neurais, 61, 85-117. Recebeu o primeiro prêmio de Melhor Artigo já concedido pelo periódico Redes Neurais, fundado em 1988. [10] JS História anotada da IA moderna e do aprendizado profundo. Relatório técnico IDSIA-22-22, 2022, arXiv:2212.11279. [11] D. Ackley, G. Hinton, T. Sejnowski (1985). Um algoritmo de aprendizagem para máquinas de Boltzmann. Ciência Cognitiva, 9(1):147-169. [12] TP Lillicrap, D. Cownden, DB Tweed, CJ Akerman. Pesos aleatórios de feedback sináptico suportam retropropagação de erros para aprendizado profundo. Nature Communications vol. 7, 13276 (2016).
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.