A inteligência artificial está redefinindo a aparência dos chips. Os chips também estão determinando até onde a IA pode chegar. Existem três tendências: 1. De uso geral a uso especializado. Anteriormente, todos usavam GPUs de uso geral para executar IA. No entanto, está-se descobrindo agora que isso é problemático para inferência, treinamento e implantação de modelos de grande porte na borda da rede. A lógica de projeto dos chips é completamente diferente. Acredito que veremos mais chips dedicados à IA nos próximos 3 a 5 anos. Por exemplo, os chips de treinamento precisam ter alta capacidade de processamento, os chips de inferência precisam economizar energia e os chips de borda precisam ter baixa latência. A Nvidia agora também está diferenciando suas linhas de produtos, com a série H para treinamento e a série L para inferência. Empresas nacionais como a Biren e a Suiyuan também estão buscando um posicionamento diferenciado. No futuro, não haverá um único jogador dominante; em vez disso, haverá um cenário onde "existem reis em treinamento, senhores da dedução e jogadores em jogos do lado do cliente". 2. Avanço na computação em memória, resolvendo o problema da limitação de memória. O maior obstáculo para modelos de grande escala atualmente não é a capacidade computacional, mas sim a transferência de dados. O chip precisa ler dados da memória constantemente, realizar cálculos e depois gravá-los de volta, o que é muito lento e consome muita energia. A computação em loja combina processamento e armazenamento, eliminando a necessidade de transferir dados de um lado para o outro. Se a tecnologia for bem-sucedida, terá um enorme impacto na IA. A Universidade Tsinghua, a Academia Chinesa de Ciências e algumas startups estão trabalhando nessa direção. Se os chips de computação com memória integrada puderem ser produzidos em massa nos próximos 3 a 5 anos... Isso reduzirá o custo de inferência de modelos grandes em uma ordem de magnitude, possibilitando que muitas aplicações atualmente impossíveis de implementar possam ser realizadas no futuro. 3. O chip e o algoritmo são otimizados em conjunto. Anteriormente, os engenheiros de algoritmos escreviam o código e os engenheiros de chips fabricavam os chips; eles faziam o seu próprio trabalho. Mas agora muitas empresas estão adotando o design colaborativo. O algoritmo conhece as características do chip, e o chip é otimizado para o algoritmo. A Apple é um exemplo; seu mecanismo neural e os recursos de IA do iOS são projetados em conjunto, de modo que a execução de modelos de IA no iPhone ocorre de forma muito fluida. O chip FSD da Tesla é o mesmo; ele é personalizado para algoritmos de direção autônoma. No mercado interno, considera-se que a Huawei teve um desempenho melhor nesse aspecto. O chip Ascend está integrado ao modelo grande Pangu e ao sistema HarmonyOS. No futuro, essa capacidade integrada de hardware e software se tornará uma vantagem competitiva fundamental.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.