恭喜@NVIDIA,成为首家市值突破4万亿美元的上市公司!如今,计算成本比上世纪90年代我们致力于释放神经网络真正潜力时降低了10万倍,而NVDA的市值也增长了4000倍。感谢黄仁勋(见图)慷慨资助我们的研究🚀
相关里程碑事件的博客文章,附有原始参考文献链接: 2010 年:NVIDIA GPU 端到端深度学习取得突破。我们基于 GPU 构建的简单但深度神经网络 (NN) 打破了 MNIST 基准测试。无需逐层增量训练,也无需无监督预训练。https://t.co/MfcBRTf2qm 2011年:NVIDIA GPU上的DanNet引发了深度卷积神经网络革命 https://t.co/g0A05dlETs 2011年:深度卷积神经网络DannNet赢得中国手写比赛冠军 https://t.co/cfc4rhtPon 2011年:DanNet首次实现超人级视觉模式识别 https://t.co/MHpWsQmaAd 2012年3月:DanNet成为首个赢得图像分割竞赛的神经网络 https://t.co/tUcK9v0Z3n 2012年9月:DanNet成为首个赢得医学影像竞赛的神经网络 https://t.co/sclXwEyT0Y 2015年5月:Highway Networks——比以往的神经网络深度超过10倍,基于LSTM在1991年提出的残差连接原理。开放门控变体:ResNet(7个月后发布)。深度学习的核心在于深度。LSTM:循环神经网络的无限深度。Highway Nets:前馈神经网络的无限深度。https://t.co/Mr46rQnqPC 2017年:NVIDIA GPU上深度卷积神经网络赢得计算机视觉竞赛的历史 https://t.co/VxZOIF4ALo 2022年:ChatGPT 使用的是1991年的原理(当时的计算成本是现在的1000万倍)——1991年的系统现在被称为非归一化线性Transformer。推文:https://t.co/loW60fKCyU 概述:https://t.co/jYOUdmqZUM 2022年:现代人工智能和深度学习的注释历史 https://t.co/Ys0dw5hkF4 如今的训练数据集比以前大得多:2010 年只有 MNIST 数据集,现在则是整个互联网!
@nvidia 111天后:恭喜@NVIDIA,首家市值达到5万亿美元的上市公司!
