A inteligência artificial moderna é baseada em redes neurais artificiaipeople.idsia.ch/~juergen/who-i…tou? https://t.co/ZCI8ZrEKnZ As redes neurais biológicas foram descobertas na década de 1880 [CAJ88-06]. O termo "neurônio" foi cunhado em 1891 [CAJ06]. Muitos pensam que as redes neurais foram desenvolvidas DEPOIS disso. Mas não é o caso: as primeiras redes neurais "modernas" com 2 camadas de unidades foram inventadas há mais de 2 séculos (1795-1805) por Legendre (1805) e Gauss (1795, não publicado) [STI81], quando a computação era trilhões de vezes mais cara do que em 2025. É verdade que a terminologia de redes neurais artificiais foi introduzida apenas muito mais tarde, no século XX. Por exemplo, certas redes neurais não-aprendizes foram discutidas em 1943 [MC43]. Ideias informais sobre uma regra de aprendizagem simples para redes neurais foram publicadas em 1948 [HEB48]. A computação evolutiva para redes neurais foi mencionada em um relatório não publicado de 1948 [TUR1]. Várias redes neurais aprendizes concretas foram publicadas em 1958 [R58], 1961 [R61][ST61-95] e 1962 [WID62]. No entanto, embora esses artigos sobre redes neurais de meados de 1900 sejam de interesse histórico, ELES TÊM NA VERDADE MENOS A VER COM A IA MODERNA DO QUE A REDE NEURAL ADAPTATIVA MUITO MAIS ANTIGA de Gauss e Legendre, ainda muito usada hoje, a própria base de todas as redes neurais, incluindo as redes neurais mais profundas recentes [DL25]. A rede neural de Gauss-Legendre, de mais de dois séculos atrás [NN25], possui uma camada de entrada com várias unidades de entrada e uma camada de saída. Para simplificar, vamos assumir que esta última consiste em uma única unidade de saída. Cada unidade de entrada pode armazenar um número real e está conectada à unidade de saída por uma conexão com um peso real. A saída da rede neural é a soma dos produtos das entradas e seus respectivos pesos. Dado um conjunto de treinamento de vetores de entrada e os valores alvo desejados para cada um deles, os pesos da rede neural são ajustados de forma a minimizar a soma dos erros quadráticos entre as saídas da rede neural e os valores alvo correspondentes [DLH]. Agora, a rede neural pode ser usada para processar dados de teste nunca antes vistos. É claro que, naquela época, isso não era chamado de rede neural (RN), porque as pessoas ainda nem conheciam os neurônios biológicos — a primeira imagem microscópica de uma célula nervosa foi criada décadas depois por Valentin, em 1836, e o termo "neurônio" foi cunhado por Waldeyer, em 1891 [CAJ06]. Em vez disso, a técnica era chamada de Método dos Mínimos Quadrados, também amplamente conhecido em estatística como Regressão Linear. Mas é MATEMATICAMENTE IDÊNTICO às redes neurais lineares de duas camadas de hoje: MESMO algoritmo básico, MESMA função de erro, MESMOS parâmetros/pesos adaptativos. Essas redes neurais simples realizam "aprendizado superficial", em oposição ao "aprendizado profundo" com muitas camadas não lineares [DL25]. De fato, muitos cursos modernos de redes neurais começam apresentando esse método e, em seguida, passam para redes neurais mais complexas e profundas [DLH]. Mesmo as aplicações do início do século XIX eram semelhantes às de hoje: aprender a prever o próximo elemento de uma sequência, dados os elementos anteriores. É ISSO QUE O CHATGPT FAZ! O primeiro exemplo famoso de reconhecimento de padrões por meio de uma rede neural data de mais de 200 anos atrás: a redescoberta do planeta anão Ceres em 1801 por Gauss, que coletou pontos de dados ruidosos de observações astronômicas anteriores e os usou para ajustar os parâmetros de um preditor, que essencialmente aprendeu a generalizar a partir dos dados de treinamento para prever corretamente a nova localização de Ceres. Foi isso que tornou o jovem Gauss famoso [DLH]. As antigas redes neurais de Gauss-Legendre ainda são usadas hoje em inúmeras aplicações. Qual é a principal diferença para as redes neurais usadas em algumas das impressionantes aplicações de IA desde a década de 2010? Estas últimas são tipicamente muito mais profundas e possuem muitas camadas intermediárias de unidades de aprendizado "ocultas". Quem inventou isso? Resposta curta: Ivakhnenko e Lapa (1965) [DEEP1-2]. Outros refinaram isso [DLH]. Veja também: quem inventou o aprendizado profundo [DL25]? Algumas pessoas ainda acreditam que as redes neurais modernas foram de alguma forma inspiradas pelo cérebro biológico. Mas isso simplesmente não é verdade: décadas antes da descoberta das células nervosas biológicas, a simples engenharia e a resolução de problemas matemáticos já haviam levado ao que hoje chamamos de redes neurais. Na verdade, nos últimos dois séculos, a pesquisa em IA não mudou tanto: em 2025, o progresso das redes neurais ainda era impulsionado principalmente pela engenharia, e não por insights neurofisiológicos. (Certas exceções que datam de muitas décadas atrás [CN25] confirmam a regra.) Nota de rodapé 1. Em 1958, redes neurais simples no estilo de Gauss e Legendre foram combinadas com uma função de limiar de saída para obter classificadores de padrões chamados Perceptrons [R58][R61][DLH]. Surpreendentemente, os autores [R58][R61] pareciam desconhecer a rede neural muito anterior (1795-1805) famosa no campo da estatística como "método dos mínimos quadrados" ou "regressão linear". Notavelmente, as redes neurais de 2 camadas mais frequentemente usadas hoje são as de Gauss e Legendre, não as das décadas de 1940 [MC43] e 1950 [R58] (que nem sequer eram diferenciáveis)! REFERÊNCIAS SELECIONADAS (muitas referências adicionais em [NN25] - veja o link acima): [CAJ88] SR Cajal. Estrutura dos centros nervosos das aves. Rev. História. Norma. Patol., 1 (1888), pp. [CAJ88b] SR Cajal. Sobre as fibras nervosas da capa molecular do cerebelo. Rev. História. Norma. Patol., 1 (1888), pp. [CAJ89] Conexão geral dos elementos nervosos. Med. Práct., 2 (1889), pp. [CAJ06] F. López-Muñoz, J. Boya b, C. Alamo (2006). Teoria dos neurônios, pedra angular da neurociência, no centenário da entrega do Prêmio Nobel a Santiago Ramón y Cajal. Boletim de Pesquisa do Cérebro, Volume 70, Edições 4–6, 16 de outubro de 2006, Páginas 391-405. [CN25] J. Schmidhuber (Blog de IA, 2025). Quem inventou as redes neurais convolucionais? [DEEP1] Ivakhnenko, AG e Lapa, VG (1965). Dispositivos de previsão cibernética. CCM Information Corporation. Primeiros Deep Learners funcionais com muitas camadas, aprendendo representações internas. [DEEP1a] Ivakhnenko, Alexey Grigorevich. O método de grupo de tratamento de dados; um rival do método de aproximação estocástica. Controle Automático Soviético 13 (1968): 43-55. [DEEP2] Ivakhnenko, AG (1971). Teoria polinomial de sistemas complexos. IEEE Transactions on Systems, Man and Cybernetics, (4):364-378. [DL25] J. Schmidhuber. Quem inventou o aprendizado profundo? Nota Técnica IDSIA-16-25, IDSIA, novembro de 2025. [DLH] J. Schmidhuber. História anotada da IA moderna e do aprendizado profundo. Relatório técnico IDSIA-22-22, IDSIA, Lugano, Suíça, 2022. Preprint arXiv:2212.11279. [HEB48] J. Konorski (1948). Reflexos condicionados e organização neuronal. Tradução do manuscrito polonês sob supervisão do autor. Cambridge University Press, 1948. Konorski publicou a chamada "regra de Hebb" antes de Hebb [HEB49]. [HEB49] D.O. Hebb. A Organização do Comportamento. Wiley, Nova York, 1949. Konorski [HEB48] publicou a chamada "regra de Hebb" antes de Hebb. [MC43] WS McCulloch, W. Pitts. Um cálculo lógico de ideias imanentes à atividade nervosa. Boletim de Biofísica Matemática, Vol. 5, p. 115-133, 1943. [NN25] J. Schmidhuber. Quem inventou as redes neurais artificiais? Nota Técnica IDSIA-15-25, IDSIA, novembro de 2025. [R58] Rosenblatt, F. (1958). O perceptron: um modelo probabilístico para armazenamento e organização de informações no cérebro. Revisão psicológica, 65(6):386. [R61] Joseph, RD (1961). Contribuições para a teoria do perceptron. Tese de doutorado, Universidade Cornell. [R62] Rosenblatt, F. (1962). Princípios de Neurodinâmica. Spartan, Nova Iorque. [ST61] K. Steinbuch. Morre Lernmatrix. (A matriz de aprendizagem.) Kybernetik, 1(1):36-45, 1961. [TUR1] AM Turing. Máquinas Inteligentes. Relatório Técnico não publicado, 1948. Em: Ince DC, editor. Obras completas de AM Turing—Inteligência Mecânica. Elsevier Science Publishers, 1992. [STI81] SM Stigler. Gauss e a invenção dos mínimos quadrados. Ann. Stat. 9(3):465-474, 1981. [WID62] Widrow, B. e Hoff, M. (1962). Armazenamento associativo e recuperação de informações digitais em redes de neurônios adaptativos. Protótipos Biológicos e Sistemas Sintéticos, 1:160, 1962.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.
