意見:Nvidia/Coreweave/OpenAIのグラフにおける循環性の多くは、AIデータセンターの経済的実行可能性の欠如によって説明できる。 その理由を理解するには、暗号資産マイニングのビジネスモデルを見てみましょう。マイニング難易度が上昇するにつれ、多くの暗号資産マイニング企業は、数年ごとに交換費用が膨大になり、実質的に収益を失ってしまいました。AIデータセンターは、データセンタープロバイダーの観点から見ると、ほぼこれと同じような状況です。なぜなら、彼らはGPU時間のみで収益を上げており、実際のAI出力からは収益を得ていないからです。つまり、計算の実際の内容はビジネスモデルとは無関係なのです。 Nvidia、Google、OpenAIは、データセンター管理の全面的または部分的なオフロードや外部委託を進めています。これらの減価償却費は、貸借対照表上で大きな負担となるためです。ネオクラウドにそのコストを負担させ、ハードウェアライフサイクルの両側から利益を得る方が、実際の減価償却を負担することなく容易です。 NvidiaがCWにGPUを販売し、DGX Cloud用にGPU時間をリースバックする場合、実際にはGPUの販売とリース料の値上げで利益を上げ、CWに減価償却費を負担させている。 ネオクラウドは株価上昇と一夜にしての成長を狙っている。ネオクラウドが負債による資金調達を継続できなくなるまでは、この戦略はしばらくはうまくいくだろう。そうなれば、大手企業が減価償却分を完全に負担する必要が生じ、多くの金融機関が再調整を迫られることになるだろう。 サプライチェーンとリソース上の理由から、GPUチップのコストは、時間の経過とともにユニット当たりで下がるものではありません。より高性能な新世代のGPUが、旧型ハードウェアを同等かそれ以上の価格で置き換え続けると予想され、LLMの計算ペイロードはますます大規模かつ複雑化していくからです。したがって、このモデルを収益性の高いものに変える方法はなく、レート変動や流動性の問題(あるいはその両方)によって爆発する時限爆弾のようなものと言えるでしょう。 物事をうまく機能させる唯一の方法は、AI パラダイムの効率を改善して、従来のクラウドと同じデータセンターの経済性を実現することです。つまり、減価償却がそれほど極端ではない、より経済的なハードウェアを通じてコンピューティングを駆動できるようにすることです。 近い将来、これは、より簡単かつ広く製造できるハードウェアで同等以上の推論パフォーマンスが得られる、根本的に異なる AI アーキテクチャのための、サプライ チェーンの集中度が低い、よりコスト効率の高いハードウェアになるかもしれません。 バブルがはじけたら、それはおそらく AI 業界にとって長期的には最善のこととなるでしょう。なぜなら、「ただ規模を大きくして、より多くのお金を費やして、何が起こるか見てみる」よりも、より良いアプローチに向けて資金が再分配され始めるからです。
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。