O Google TPUv7 impressiona o mercado: os principais indicadores de desempenho se igualam aos da NVIDIA. O cenário de poder computacional para IA está prestes a mudar? Um artigo da @SemiAnalysis_ fornece uma análise aprofundada dos detalhes técnicos, da importância estratégica e do impacto potencial no domínio de mercado da NVIDIA em relação ao mais recente chip de IA do Google, o TPUv7 (codinome Ironwood). Argumento principal: o Google não está mais "se especializando parcialmente" em uma área; está confrontando diretamente a NVIDIA. No passado, embora as TPUs do Google fossem amplamente utilizadas internamente, seu desempenho em um único chip era frequentemente inferior ao das GPUs topo de linha da NVIDIA, e a empresa dependia mais da quantidade para vencer. O TPUv7 representou um ponto de virada, com o Google praticamente eliminando a diferença para a mais recente linha de processadores da NVIDIA, a série Blackwell, em termos de poder de processamento, memória e largura de banda. O Google agora possuía a capacidade de competir diretamente com o líder do setor em termos de especificações técnicas. Especificações de hardware: Equivalentes aos "mais poderosos da Terra" Uma comparação detalhada dos principais parâmetros do TPUv7 e do NVIDIA Blackwell (B200) revelou que agora eles estão na mesma categoria: • Desempenho computacional: O poder de computação FP8 de chip único do TPUv7 é de aproximadamente 4,6 PetaFLOPS, ligeiramente superior aos 4,5 PetaFLOPS do NVIDIA B200. Isso significa que o TPUv7 apresenta uma ligeira vantagem mesmo ao lidar com as tarefas computacionais mais comuns no treinamento e inferência de modelos de IA. • Configuração de memória: O TPUv7 está equipado com 192 GB de memória HBM3e de alta largura de banda, exatamente a mesma do NVIDIA B200. A largura de banda da memória também atinge um nível impressionante de 7,4 TB/s, ficando bem próxima da NVIDIA. O verdadeiro diferencial: capacidades de expansão assustadoras. A maior vantagem do TPUv7 não está nos chips individuais, mas na sua capacidade de conectá-los entre si. • Supercluster: O Google utiliza sua tecnologia proprietária de comutação de caminho óptico e arquitetura de interconexão 3D Torus para conectar 9.216 chips TPUv7 em um enorme "silo de supercomputação" unificado. • Comparado à NVIDIA: O sistema GB200 NVL72 da NVIDIA normalmente conecta 72 GPUs em um único rack. Embora a NVIDIA também pudesse conectar mais racks via Ethernet ou InfiniBand, o Google demonstrou capacidades de engenharia extremamente avançadas na construção de um único cluster em larga escala. O que isso significa? Para o treinamento de modelos de IA massivos com trilhões de parâmetros, essa interconexão em larga escala e de baixa latência pode reduzir significativamente os gargalos de comunicação, permitindo que milhares de chips trabalhem juntos como um "cérebro gigante". Considerações econômicas: Custos de propriedade altamente competitivos A SemiAnalysis fez os cálculos no artigo: embora o desempenho do TPUv7 seja equivalente ao da NVIDIA, ele tem uma enorme vantagem de custo. Graças à completa integração vertical do Google, desde o design de chips, centros de dados e dissipação de calor até equipamentos de rede, o artigo estima que o custo total de propriedade do sistema TPUv7 seja cerca de 44% menor do que o de uma solução de servidor NVIDIA GB200. Essa é uma tentação irresistível para as gigantes da tecnologia, que precisam gastar bilhões de dólares para adquirir poder computacional. Mudança estratégica: de "uso pessoal" para "comerciante de armas" O artigo também destaca uma mudança significativa no modelo de negócios do Google. Anteriormente, as TPUs eram usadas principalmente internamente pelo Google (como para buscas, YouTube e o modelo Gemini), e clientes externos só podiam alugá-las por meio do Google Cloud. Mas agora, o Google está oferecendo poder computacional a clientes externos de uma forma mais flexível, atraindo inclusive grandes clientes como a Anthropic. O compromisso da Anthropic em adquirir e usar clusters TPU em larga escala marca a entrada oficial do Google como um "fornecedor de poder computacional para IA", começando a conquistar a fatia de mercado que antes pertencia à NVIDIA. O artigo conclui que o TPUv7 é a arma de contra-ataque mais poderosa do Google até o momento. A Google não apenas reduz a diferença geracional com a NVIDIA em especificações de hardware, como também alavanca suas vantagens tradicionais na construção de clusters em larga escala e no controle de custos para construir uma vantagem competitiva única. Embora o ecossistema CUDA da NVIDIA permaneça forte, a Google oferece uma alternativa altamente competitiva em desempenho e custo para os treinadores de modelos de IA mais exigentes. Isso pode indicar que o mercado de chips de IA está passando da dominância da NVIDIA para um duopólio mais intenso. Endereço do artigo:
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.
