昨日、@RealJimChanos は、テスラの設備投資額が比較的低いということは、同社が現実世界の AI とロボティクスの分野では真剣な競争相手ではないことを意味すると主張した。 これはまさに間違った見方であり、この事実の意味はテスラにとって実際にはプラスであると私は考えます。 テスラの推論は定義上、車内で行われるため、顧客は実質的に推論コンピューティングの「設備投資」を支払っており、これが現在ハイパースケーラーの設備投資支出の大部分を占めていると考えられます。 テスラの設備投資は、データセンターで関連する運転データを合成して生成する必要があった場合、桁違いに高くなる可能性があります。顧客が補助する垂直統合は素晴らしいことです。 これは、将来的に Tesla の顧客が自社の車を分散エッジ コンピューティングのプールに入れて、車が走行していないときに収益を得ることができるようになる理由でもあります。これは Akamai や Cloudflare がエッジ ノードに単一の GPU を配置しているのと同じ方法です。 テスラの車両群が、世界最大かつ最も分散化されたAI向けCDN(もちろん、車内でコンテンツをキャッシュできないAIは除く)となる可能性は現実的です。BYDも同様の機会と推論コストの優位性を得るでしょう。 この推論コストの大幅な優位性に加え、テスラは事前学習用に、xAIに次ぐ世界第2位の規模を誇るコヒーレントホッパークラスターを保有しています。十分な大きさのコヒーレントクラスターであれば、1つだけで十分です。コヒーレントクラスターの規模は、事前学習における資本効率を左右します。 コヒーレンス、スピード、コストの観点から、xAIとTeslaのクラスターに匹敵するものは他にありません。コヒーレンスこそが最も重要な要素です。だからこそ、Jensen氏は彼らのデータセンターの設計と実行を「超人的」と評しました。なお、Teslaには、トレーニング後、トレーニング中、あるいは最近では何と呼んでいるか分かりませんが、トレーニング用のAI4クラスターも存在します。 また、現実世界のビデオは無限に拡張できるため、Tesla は Chinchilla の最適 FSD モデルのトレーニングにおいてもデータ面で大きな優位性があり、このデータ面での優位性により、ラボでトレーニングする LLM と比べて合成データの生成と 3P データのソーシング/ラベル付けが少なくなり、トレーニングの資本コストがさらに削減されます。 最大の一貫性のあるクラスター、推論に対して支払う顧客、データセットのサイズ、継続的なデータ生成コストなど、これらすべての利点の結果としてのこの相対的な資本効率は、資本効率が低いロボティクスおよび FSD の競合他社に対して重要になる可能性があります。 AIにとって、トークンあたりのコストはすべてです。GoogleはLLMトークンの低コスト生産者であり(xAIは2位)、TeslaはFSDとロボティクスにとって重要なトークンの低コスト生産者です。 AIは、私のキャリアの中で初めて、低コスト生産者であることが重要になった事例です。推論の世界では、トークンの量が実質的に品質を左右するからです。この力学は市場で非常に過小評価されていると思います。 テスラは FSD の競合他社に負ける可能性が非常に高いです。私の観点からすると可能性は低いですが、何が起きてもおかしくありません。しかし、相対的な設備投資支出のせいで、これは起きないでしょう。 LLM推論がFSDと同様にスマートフォンやPCのエッジで実行されれば、ハイパースケーラーの設備投資は大幅に削減されるでしょう。これはデータセンター支出に対する真のリスクであり、バリューチェーンやマクロ経済効果の全てではありません。ちなみに、このシナリオではメモリが最大の勝者ですが、スケーリング則が今後も維持されれば、実現は数年先になるでしょう。 ジムは賢い人ですが、彼の AI に関する見解は誤解されていると私は謙虚に思います。 また、99% 下落してもまだ過大評価されている株式が多数ある、極めて明白な量子バブルや核バブルを考えると、AI をバブルとして注目する人がいるのも私には非常に奇妙に思えます。
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。
