Félicitations à @NVIDIA, la première entreprise cotée en bourse à atteindre une valorisation de 4 000 milliards de dollars ! Aujourd’hui, la puissance de calcul est 100 000 fois moins chère et l’action $NVDA vaut 4 000 fois plus que dans les années 1990, lorsque nous travaillions à libérer le véritable potentiel des réseaux neuronaux. Merci à Jensen Huang (voir image) pour son généreux soutien financier à nos recherches 🚀
Articles de blog sur les étapes importantes, avec des liens vers les références originales : 2010 : Percée majeure dans l’apprentissage profond de bout en bout sur GPU NVIDIA. Notre réseau neuronal (RN), simple mais profond, a battu le record MNIST sur GPU. Aucun entraînement incrémental couche par couche. Aucun pré-entraînement non supervisé. https://t.co/MfcBRTf2qm 2011 : DanNet sur GPU NVIDIA déclenche une profonde révolution dans le domaine des CNN https://t.co/g0A05dlETs 2011 : DannNet, le réseau de neurones convolutif profond, remporte le concours d’écriture manuscrite chinoise https://t.co/cfc4rhtPon 2011 : DanNet réalise la première reconnaissance visuelle de formes surhumaine https://t.co/MHpWsQmaAd Mars 2012 : DanNet devient le premier réseau de neurones à remporter un concours de segmentation d’images https://t.co/tUcK9v0Z3n Septembre 2012 : DanNet devient le premier réseau neuronal à remporter un concours d’imagerie médicale https://t.co/sclXwEyT0Y Mai 2015 : Réseaux Highway – plus de 10 fois plus profonds que les réseaux neuronaux précédents, basés sur le principe des connexions résiduelles des LSTM (1991). Variante à portes ouvertes : ResNet (publiée 7 mois plus tard). L’apprentissage profond repose sur la profondeur. LSTM : profondeur illimitée pour les réseaux récurrents. Réseaux Highway : pour les réseaux à propagation directe. https://t.co/Mr46rQnqPC 2017 : Historique des compétitions de vision par ordinateur remportées par des réseaux de neurones convolutifs profonds sur GPU NVIDIA https://t.co/VxZOIF4ALo 2022 : ChatGPT utilise les principes de 1991 (alors que la puissance de calcul coûtait 10 millions de fois plus cher qu’aujourd’hui) ; le système de 1991 est désormais appelé transformateur linéaire non normalisé. Tweet : https://t.co/loW60fKCyU Aperçu : https://t.co/jYOUdmqZUM 2022 : Histoire commentée de l’IA moderne et de l’apprentissage profond https://t.co/Ys0dw5hkF4 Les ensembles d'entraînement actuels sont beaucoup plus vastes : en 2010, il n'y avait que MNIST, maintenant c'est tout Internet !
@nvidia 111 jours plus tard : félicitations à @NVIDIA, la première entreprise publique à atteindre une capitalisation boursière de 5 000 milliards de dollars !
