어제 @RealJimChanos는 테슬라의 비교적 낮은 자본지출은 그들이 실제 AI와 로봇공학 분야에서 강력한 경쟁자가 아니라는 것을 의미한다고 주장했습니다. 이는 *정확히* 잘못된 관점이며, 이 사실의 의미는 실제로 테슬라에 긍정적입니다. 테슬라의 추론은 자동차에서 정의상 발생하므로 고객은 추론 컴퓨팅 "자본지출"에 실질적으로 비용을 지불하고 있으며, 이는 현재 하이퍼스케일러 자본지출 지출의 대부분을 차지할 것으로 보입니다. 테슬라가 데이터센터에서 관련 주행 데이터를 합성적으로 생성해야 한다면 자본지출(CAPEX)은 훨씬 더 높아질 수 있습니다. 고객이 보조하는 수직적 통합은 아름답습니다. 이것이 바로 언젠가 Tesla 고객이 자신의 자동차를 분산형 엣지 컴퓨팅 풀에 넣고 자동차가 주행하지 않을 때에도 수익을 창출할 수 있는 이유입니다. Akamai와 Cloudflare가 엣지 노드에 단일 GPU를 배치하는 것과 같은 방식입니다. 테슬라는 AI를 위한 세계 최대 규모이자 가장 분산된 CDN(그리고 자동차의 콘텐츠를 캐싱할 수 없기 때문에 AI만이 유일하게)으로서 실현 가능성이 높습니다. BYD 역시 유사한 기회와 추론 비용 이점을 누릴 것입니다. 이러한 상당한 추론 비용 이점 외에도, 테슬라는 사전 학습을 위해 세계에서 두 번째로 큰 코히어런트 호퍼 클러스터(xAI에 이어 두 번째로 큰)를 보유하고 있습니다. 코히어런트 클러스터는 *충분히* 큰 클러스터 하나만 있으면 됩니다. 코히어런트 클러스터 크기는 사전 학습의 자본 효율성을 높입니다. 일관성, 속도, 비용 측면에서 xAI와 Tesla 클러스터를 따라올 수 있는 기업은 없었으며, 일관성이 가장 중요합니다. 이것이 바로 Jensen이 그들의 데이터센터 설계와 실행을 "초인적"이라고 표현한 이유입니다. Tesla는 훈련 후 또는 훈련 중, 혹은 요즘 우리가 뭐라고 부르든 간에 훈련용 AI4 클러스터도 보유하고 있다는 점에 유의해야 합니다. 테슬라는 실제 비디오가 무한히 확장됨에 따라 Chinchilla 최적 FSD 모델을 훈련하는 데 있어 상당한 데이터 이점을 가지고 있으며, 이러한 데이터 이점은 자본화된 훈련 비용을 더욱 낮춥니다. 즉, 합성 데이터 생성과 3P 데이터 소싱/레이블링이 실험실에서 LLM을 훈련하는 것보다 적습니다. 가장 큰 일관성 있는 클러스터, 추론 비용을 지불하는 고객, 데이터 세트 크기 및 지속적인 데이터 생성 비용 등 이러한 모든 장점으로 인한 상대적 자본 효율성은 자본 효율성이 낮은 로봇 공학 및 FSD 경쟁자와 비교했을 때 중요할 가능성이 높습니다. AI에 있어서 토큰당 비용은 매우 중요합니다. 구글은 LLM 토큰을 저비용으로 생산하는 기업이지만(xAI가 2위), 테슬라는 FSD와 로보틱스에 중요한 토큰을 가장 저렴하게 생산하는 기업입니다. AI는 제 경력에서 처음으로 저비용 생산자가 중요해진 사례입니다. 추론 세계에서 토큰의 양이 품질을 좌우하기 때문입니다. 저는 이러한 역학 관계가 시장에서 매우 저평가되고 있다고 생각합니다. 테슬라는 FSD 경쟁자에게 밀릴 가능성이 매우 높습니다. 제 관점에서는 가능성이 낮지만, 가능성은 얼마든지 있습니다. 하지만 상대적인 자본 지출을 고려하면 그런 일은 일어나지 않을 것입니다. FSD처럼 LLM 추론이 휴대폰과 PC의 엣지에서 이루어진다면 하이퍼스케일러의 자본 지출은 *훨씬* 낮아질 것입니다. 이것이 데이터센터 지출에 대한 실질적인 위험이며, 모든 가치/매크로 비용이 발생하는 것은 아닙니다. 참고로, 이 시나리오에서 가장 큰 수혜자는 메모리입니다. 확장성 법칙이 계속 유지된다면 수년 후의 시나리오입니다. 짐은 똑똑한 사람이지만, 저는 겸손하게 그의 AI 분석이 잘못된 정보를 담고 있다고 생각합니다. 또한, 99% 하락할 수 있는 주식이 많고 여전히 과대평가된 양자 버블과 핵 버블이 명백히 존재하는 상황에서 누군가가 AI를 버블로 보는 것도 이상합니다.
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.
