AI はチップの外観を再定義しています。 チップは AI がどこまで進化できるかを決定するものでもあります。 3つの傾向があります: 1. 汎用から特化型へ。 以前は、誰もが AI を実行するために汎用 GPU を使用していました。 しかし、現在では、大規模モデルの推論、トレーニング、エッジ展開にはこれが問題となることが判明しています。 チップの設計ロジックは完全に異なります。 今後 3 ~ 5 年で、より多くの専用 AI チップが登場すると思います。 たとえば、トレーニング チップには高い計算能力が必要であり、推論チップには電力を節約する必要があり、エッジ チップには低レイテンシが必要です。 Nvidia は現在、トレーニング用の H シリーズと推論用の L シリーズという形で製品ラインを差別化しています。 比人や綏源などの国内企業も差別化されたポジショニングを模索している。 将来的には、単一の支配的なプレーヤーは存在せず、代わりに「訓練中の王、推理の覇者、そしてクライアント側ゲームのプレーヤーがいる」状況が生まれるでしょう。 2. インメモリ コンピューティングのブレークスルーにより、メモリ ウォールの問題が解決されました。 現在、大規模モデルの最大のボトルネックとなっているのは、計算能力ではなく、データ転送です。 チップはメモリからデータを絶えず読み取り、計算を実行し、それを書き戻す必要があるため、処理速度が遅く、消費電力も大きくなります。 店舗内コンピューティングではコンピューティングとストレージが統合されており、データをやり取りする必要がなくなります。 この技術が飛躍的に進歩すれば、AIに大きな影響を与えるだろう。 清華大学、中国科学院、そしていくつかのスタートアップ企業もこの方向で取り組んでいます。 インメモリ コンピューティング チップが今後 3 ~ 5 年で大量生産されれば... これにより、大規模モデルの推論コストが桁違いに削減され、現在は実装不可能な多くのアプリケーションが将来的に実行可能になります。 3. チップとアルゴリズムが一緒に最適化されます。 以前は、アルゴリズム エンジニアがコードを書き、チップ エンジニアがチップを作り、それぞれ独自の作業を行っていました。 しかし今では多くの企業が共同設計を行っています。 アルゴリズムはチップの特性を認識しており、チップはアルゴリズムに合わせて最適化されています。 Apple を例に挙げると、Apple のニューラル エンジンと iOS AI 機能は連携して設計されているため、iPhone 上で AI モデルを実行するのは非常にスムーズです。 テスラの FSD チップも同様で、自動運転アルゴリズム向けにカスタマイズされています。 国内では、この点に関してはファーウェイの方が優れた仕事をしたと考えられている。 Ascend チップは、Pangu 大型モデルと HarmonyOS システムに統合されています。 将来的には、このハードウェアとソフトウェアの統合機能が、競争上の優位性の核となるでしょう。
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。