恭喜@NVIDIA,成為首家市值突破4兆美元的上市公司!如今,計算成本比上世紀90年代我們致力於釋放神經網路真正潛力時降低了10萬倍,而NVDA的市值也增加了4000倍。感謝黃仁勳(見圖)慷慨資助我們的研究🚀
相關里程碑事件的部落格文章,附有原始參考文獻連結: 2010 年:NVIDIA GPU 端到端深度學習取得突破。我們基於 GPU 建構的簡單但深度神經網路 (NN) 打破了 MNIST 基準測試。無需逐層增量訓練,也無需無監督預訓練。 https://t.co/MfcBRTf2qm 2011年:NVIDIA GPU上的DanNet引發了深度卷積神經網路革命 https://t.co/g0A05dlETs 2011年:深度卷積神經網路DannNet贏得中國手寫比賽冠軍 https://t.co/cfc4rhtPon 2011:DanNet首次實現超人級視覺模式辨識 https://t.co/MHpWsQmaAd 2012年3月:DanNet成為第一個贏得影像分割競賽的神經網路 https://t.co/tUcK9v0Z3n 2012年9月:DanNet成為第一個贏得醫學影像競賽的神經網路 https://t.co/sclXwEyT0Y 2015年5月:Highway Networks-比以往的神經網路深度超過10倍,基於LSTM在1991年提出的殘差連結原理。開放門控變體:ResNet(7個月後發布)。深度學習的核心在於深度。 LSTM:循環神經網路的無限深度。 Highway Nets:前饋神經網路的無限深度。 https://t.co/Mr46rQnqPC 2017年:NVIDIA GPU上深度卷積神經網路贏得電腦視覺競賽的歷史 https://t.co/VxZOIF4ALo 2022年:ChatGPT 使用的是1991年的原理(當時的計算成本是現在的1000萬倍)-1991年的系統現在被稱為非歸一化線性Transformer。推文:https://t.co/loW60fKCyU 概述:https://t.co/jYOUdmqZUM 2022年:現代人工智慧與深度學習的註釋歷史 https://t.co/Ys0dw5hkF4 如今的訓練資料集比以前大得多:2010 年只有 MNIST 資料集,現在則是整個網路!
@nvidia 111天後:恭喜@NVIDIA,首家市值達到5兆美元的上市公司!
