Todo o crédito vai para a Artificial Analysis por realizar esses testes comparativos, mas estou realmente apreensivo quanto ao momento da divulgação. E não sou nada a favor de publicar resultados incompletos, mesmo que venham acompanhados da ressalva de que "atualizaremos esses resultados conforme novas otimizações forem implementadas". Isso parece mais uma tentativa contínua de acalmar as preocupações sobre as TPUs estarem abocanhando a quota de mercado da Nvidia – o que nada mais é do que pânico alimentado por "especialistas em IA", os mesmos especialistas que lhe darão um guia de mil páginas sobre como usar agentes de IA para criar um negócio com receita anual recorrente de sete dígitos durante o feriado de Ação de Graças. De qualquer forma, resultados incompletos com ressalvas só são úteis quando você sabe que o público vai dedicar tempo para ler e entender os resultados. Não quando há pessimistas da IA à espreita em todos os lugares. E, mais importante ainda, existe certamente uma diferença significativa entre a pilha de tecnologias que o Google usa internamente para suas execuções em TPU e o que está disponível para a comunidade hoje. É por isso que a vantagem competitiva do CUDA existe em primeiro lugar: a maturidade da pilha de software CUDA está uma geração à frente de qualquer outra disponível no mercado. Tchau e Feliz Dia de Ação de Graças. Hora de comer batatas.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.