¡Felicidades a @NVIDIA, la primera empresa pública en alcanzar los 4 billones de dólares! Hoy en día, la computación es 100 000 veces más barata y las acciones de $NVDA son 4000 veces más valiosas que en la década de 1990, cuando trabajábamos para liberar el verdadero potencial de las redes neuronales. Gracias a Jensen Huang (ver imagen) por financiar generosamente nuestra investigación. 🚀
Entradas de blog sobre hitos relevantes, con enlaces a las referencias originales: 2010: Avance en el aprendizaje profundo de extremo a extremo en GPU de NVIDIA. Nuestra red neuronal (RN) simple pero profunda en GPU superó el desafío MNIST. Sin entrenamiento incremental capa por capa. Sin preentrenamiento no supervisado. https://t.co/MfcBRTf2qm 2011: DanNet en GPUs de NVIDIA impulsa una revolución en las CNN profundas https://t.co/g0A05dlETs 2011: DannNet, la red neuronal convolucional profunda, gana la competición de escritura a mano china https://t.co/cfc4rhtPon 2011: DanNet logra el primer reconocimiento de patrones visuales sobrehumano https://t.co/MHpWsQmaAd Marzo de 2012: DanNet se convierte en la primera red neuronal en ganar una competición de segmentación de imágenes https://t.co/tUcK9v0Z3n Septiembre de 2012: DanNet se convierte en la primera red neuronal en ganar un concurso de imágenes médicas https://t.co/sclXwEyT0Y Mayo de 2015: Redes Highway: más de 10 veces más profundas que las redes neuronales anteriores, basadas en el principio de conexiones residuales de LSTM de 1991. Variante con compuerta abierta: ResNet (publicada 7 meses después). El aprendizaje profundo se centra en la profundidad. LSTM: profundidad ilimitada para redes recurrentes. Redes Highway: para redes de propagación hacia adelante. https://t.co/Mr46rQnqPC 2017: Historial de concursos de visión artificial ganados por CNN profundas en GPU NVIDIA https://t.co/VxZOIF4ALo 2022: ChatGPT utiliza principios de 1991 (cuando la computación era 10 millones de veces más cara que hoy); el sistema de 1991 ahora se denomina Transformer lineal no normalizado. Tweet: https://t.co/loW60fKCyU Resumen: https://t.co/jYOUdmqZUM 2022: Historia comentada de la IA moderna y el aprendizaje profundo https://t.co/Ys0dw5hkF4 Los conjuntos de entrenamiento actuales son mucho más grandes: en 2010, solo se utilizaba MNIST, ¡ahora se utiliza todo Internet!
@nvidia 111 días después: ¡felicitaciones a @NVIDIA, la primera empresa pública de 5 billones de dólares!
