La IA moderna se basa en redes neuronales artificiales (NN). ¿Quién laspeople.idsia.ch/~juergen/who-i…ZCI8ZrEKnZ Las redes neuronales biológicas se descubrieron en la década de 1880 [CAJ88-06]. El término "neurona" se acuñó en 1891 [CAJ06]. Muchos creen que las redes neuronales se desarrollaron después. Pero no es así: las primeras redes neuronales "modernas" con dos capas de unidades fueron inventadas hace más de dos siglos (1795-1805) por Legendre (1805) y Gauss (1795, inédito) [STI81], cuando la computación era mucho más cara que en 2025. Es cierto que la terminología de las redes neuronales artificiales se introdujo mucho más tarde, en la década de 1900. Por ejemplo, ciertas redes neuronales sin aprendizaje se analizaron en 1943 [MC43]. En 1948 se publicaron ideas informales sobre una regla simple de aprendizaje para redes neuronales [HEB48]. La computación evolutiva para redes neuronales se mencionó en un informe inédito de 1948 [TUR1]. Varias redes neuronales con aprendizaje concreto se publicaron en 1958 [R58], 1961 [R61][ST61-95] y 1962 [WID62]. Sin embargo, aunque estos artículos sobre NN de mediados del siglo XX son de interés histórico, EN REALIDAD TIENEN MENOS QUE VER CON LA IA MODERNA QUE CON LA NN ADAPTATIVA MUCHO MÁS ANTIGUA de Gauss y Legendre, todavía muy utilizada hoy en día, la base misma de todas las NN, incluidas las NN más profundas recientes [DL25]. La red neuronal Gauss-Legendre de hace más de dos siglos [NN25] consta de una capa de entrada con varias unidades de entrada y una capa de salida. Para simplificar, supongamos que esta última consta de una sola unidad de salida. Cada unidad de entrada puede contener un número real y está conectada a la unidad de salida mediante una conexión con un peso real. La salida de la red neuronal es la suma de los productos de las entradas por sus pesos. Dado un conjunto de entrenamiento de vectores de entrada y los valores objetivo deseados para cada uno de ellos, los pesos de la red neuronal se ajustan de forma que se minimice la suma de los errores al cuadrado entre las salidas de la red neuronal y los objetivos correspondientes [DLH]. Ahora, la red neuronal puede utilizarse para procesar datos de prueba no vistos previamente. Por supuesto, en aquel entonces esto no se llamaba NN, porque ni siquiera se conocían las neuronas biológicas. La primera imagen microscópica de una célula nerviosa fue creada décadas después por Valentin en 1836, y el término "neurona" fue acuñado por Waldeyer en 1891 [CAJ06]. En su lugar, la técnica se denominó Método de Mínimos Cuadrados, también conocido en estadística como Regresión Lineal. Sin embargo, es MATEMÁTICAMENTE IDÉNTICA a las NN lineales de dos capas actuales: el mismo algoritmo básico, la misma función de error y los mismos parámetros/pesos adaptativos. Estas NN simples realizan un "aprendizaje superficial", a diferencia del "aprendizaje profundo" con muchas capas no lineales [DL25]. De hecho, muchos cursos modernos de NN comienzan introduciendo este método y luego avanzan hacia NN más complejas y profundas [DLH]. Incluso las aplicaciones de principios del siglo XIX eran similares a las actuales: aprender a predecir el siguiente elemento de una secuencia, dados los elementos anteriores. ¡ESO ES LO QUE HACE CHATGPT! El primer ejemplo famoso de reconocimiento de patrones mediante una red neuronal se remonta a más de 200 años: el redescubrimiento del planeta enano Ceres en 1801 gracias a Gauss, quien recopiló datos con ruido de observaciones astronómicas previas y los utilizó para ajustar los parámetros de un predictor, que básicamente aprendió a generalizar a partir de los datos de entrenamiento para predecir correctamente la nueva ubicación de Ceres. Esto es lo que hizo famoso al joven Gauss [DLH]. Las antiguas redes neuronales Gauss-Legendre se siguen utilizando hoy en día en innumerables aplicaciones. ¿Cuál es la principal diferencia con las redes neuronales utilizadas en algunas de las impresionantes aplicaciones de IA desde la década de 2010? Estas últimas suelen ser mucho más profundas y tienen muchas capas intermedias de unidades de aprendizaje "ocultas". ¿Quién las inventó? Respuesta corta: Ivakhnenko y Lapa (1965) [DEEP1-2]. Otros las perfeccionaron [DLH]. Véase también: ¿Quién inventó el aprendizaje profundo [DL25]? Algunas personas aún creen que las neuronas neuronales modernas se inspiraron de alguna manera en el cerebro biológico. Pero eso simplemente no es cierto: décadas antes del descubrimiento de las células nerviosas biológicas, la ingeniería simple y la resolución de problemas matemáticos ya condujeron a lo que hoy conocemos como neuronas neuronales. De hecho, en los últimos dos siglos, la investigación en IA no ha cambiado mucho: a partir de 2025, el progreso de las neuronas neuronales sigue estando impulsado principalmente por la ingeniería, no por los conocimientos neurofisiológicos. (Ciertas excepciones que datan de hace décadas [CN25] confirman la regla). Nota al pie 1. En 1958, se combinaron redes neuronales simples al estilo de Gauss y Legendre con una función de umbral de salida para obtener clasificadores de patrones llamados perceptrones [R58][R61][DLH]. Sorprendentemente, los autores [R58][R61] parecían desconocer la red neuronal mucho más temprana (1795-1805), conocida en el campo de la estadística como "método de mínimos cuadrados" o "regresión lineal". Cabe destacar que las redes neuronales de dos capas más utilizadas en la actualidad son las de Gauss y Legendre, no las de las décadas de 1940 [MC43] y 1950 [R58] (que ni siquiera eran diferenciables). REFERENCIAS SELECCIONADAS (muchas referencias adicionales en [NN25] - ver enlace arriba): [CAJ88] SR Cajal. Estructura de los centros nerviosos de las aves. Rev. Recorte. Historia. Norma. Patol., 1 (1888), págs. 1-10. [CAJ88b] SR Cajal. Sobre las fibras nerviosas de la capa molecular del cerebelo. Rev. Recorte. Historia. Norma. Patol., 1 (1888), págs. 33-49. [CAJ89] Conexión general de los elementos nerviosos. Medicina. Práct., 2 (1889), págs. 341-346. [CAJ06] F. López-Muñoz, J. Boya b, C. Álamo (2006). La teoría de las neuronas, piedra angular de la neurociencia, en el centenario de la concesión del Premio Nobel a Santiago Ramón y Cajal. Brain Research Bulletin, volumen 70, números 4 a 6, 16 de octubre de 2006, páginas 391-405. [CN25] J. Schmidhuber (AI Blog, 2025). ¿Quién inventó las redes neuronales convolucionales? [DEEP1] Ivakhnenko, AG y Lapa, VG (1965). Dispositivos de predicción cibernética. CCM Information Corporation. Primeros dispositivos de aprendizaje profundo funcionales con múltiples capas, que aprenden representaciones internas. [DEEP1a] Ivakhnenko, Alexey Grigorevich. El método de grupo para el manejo de datos; un rival del método de aproximación estocástica. Soviet Automatic Control 13 (1968): 43-55. [DEEP2] Ivakhnenko, AG (1971). Teoría polinómica de sistemas complejos. IEEE Transactions on Systems, Man and Cybernetics, (4):364-378. [DL25] J. Schmidhuber. ¿Quién inventó el aprendizaje profundo? Nota técnica IDSIA-16-25, IDSIA, noviembre de 2025. [DLH] J. Schmidhuber. Historia comentada de la IA moderna y el aprendizaje profundo. Informe técnico IDSIA-22-22, IDSIA, Lugano, Suiza, 2022. Preimpresión arXiv:2212.11279. [HEB48] J. Konorski (1948). Reflejos condicionados y organización neuronal. Traducción del manuscrito polaco bajo la supervisión del autor. Cambridge University Press, 1948. Konorski publicó la llamada "regla de Hebb" antes que Hebb [HEB49]. [HEB49] DO Hebb. La organización de la conducta. Wiley, Nueva York, 1949. Konorski [HEB48] publicó la llamada "regla de Hebb" antes de Hebb. [MC43] WS McCulloch, W. Pitts. Un cálculo lógico de ideas inmanentes en la actividad nerviosa. Boletín de Biofísica Matemática, vol. 5, págs. 115-133, 1943. [NN25] J. Schmidhuber. ¿Quién inventó las redes neuronales artificiales? Nota técnica IDSIA-15-25, IDSIA, noviembre de 2025. [R58] Rosenblatt, F. (1958). El perceptrón: un modelo probabilístico para el almacenamiento y la organización de la información en el cerebro. Psychological Review, 65(6):386. [R61] Joseph, RD (1961). Contribuciones a la teoría del perceptrón. Tesis doctoral, Universidad de Cornell. [R62] Rosenblatt, F. (1962). Principios de neurodinámica. Spartan, Nueva York. [ST61] K. Steinbuch. Die Lernmatriz. (La matriz de aprendizaje.) Kybernetik, 1(1):36-45, 1961. [TUR1] AM Turing. Maquinaria Inteligente. Informe Técnico Inédito, 1948. En: Ince DC, editor. Obras Completas de AM Turing: Inteligencia Mecánica. Elsevier Science Publishers, 1992. [STI81] SM Stigler. Gauss y la invención de los mínimos cuadrados. Ann. Stat. 9(3):465-474, 1981. [WID62] Widrow, B. y Hoff, M. (1962). Almacenamiento y recuperación asociativa de información digital en redes de neuronas adaptativas. Prototipos Biológicos y Sistemas Sintéticos, 1:160, 1962.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.
