이 벤치마킹을 진행해 주신 Artificial Analysis 팀에 모든 공을 돌리지만, 타이밍이 정말 걱정됩니다. "더 많은 최적화가 진행됨에 따라 결과를 계속 업데이트할 예정입니다"라는 면책 조항이 포함되어 있더라도, 엉성한 결과를 공개하는 것은 정말 바람직하지 않습니다. 이는 TPU가 Nvidia의 점유율을 잠식할 것이라는 우려를 달래기 위한 지속적인 시도처럼 보입니다. 이는 "AI 전문가"가 조장하는 공황 상태에 불과하며, 이 전문가들은 추수감사절 주말에 AI 에이전트를 사용하여 7자리 ARR 사업을 만드는 방법에 대한 1000페이지 분량의 요약지를 제공할 것입니다. 어느 쪽이든, 면책 조항이 붙은 엉성한 결과는 청중이 결과를 읽고 이해하는 데 시간을 투자할 것이라는 확신이 있을 때만 유용합니다. AI를 폄하하는 사람들이 도처에 도사리고 있는 상황에서는 유용하지 않습니다. 그리고 더 중요한 것은, 구글이 TPU 실행에 내부적으로 사용하는 스택과 현재 커뮤니티에서 사용 가능한 스택 사이에는 확실히 상당한 차이가 있다는 것입니다. 애초에 CUDA 해자가 존재하는 이유가 바로 여기에 있습니다. CUDA 소프트웨어 스택의 성숙도는 시중에 나와 있는 어떤 것보다 한 세대 앞서 있기 때문입니다. 안녕, 행복한 추수감사절 보내세요. 감자 먹을 시간이에요.
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.