Empresas indianas também estão começando a usar modelos de grande escala fabricados internamente? Acabei de ver outro modelo de poda! MiniMax-M2-THRIFT. O modelo foi reduzido de 250B para 192B, resultando em uma queda de desempenho de cerca de 5%. Não creio que o desempenho do modelo em si seja relevante, mas desde o colapso do Llama, houve duas reduções de modelos baseados em modelos domésticos neste mês (Kimi-Linear-REAP e MiniMax-M2-THRIFT). Embora este modelo modificado possa não ser particularmente inovador, vale a pena notar que seu criador é a VibeStudio, especializada no ambiente Vibe, que roda na nuvem. Imagine um VSCode + AI Agent ou ClaudeCode rodando em um navegador web. A maior vantagem é o Vibe Everywhere. Por que mencionar essa empresa? Porque descobri que é uma empresa indiana localizada em Chennai. Eles usam o serviço Cerebras para inferência e o Kimi-K2 para o modelo. A vantagem de ser acessível e facilmente disponível está se tornando evidente. Atualmente, com exceção de empresas que precisam escolher um lado (Microsoft, NVIDIA, etc.) e que ainda utilizam versões bastante modificadas do Lllama3, o restante, sejam startups ou provedores de serviços de computação, utiliza modelos ponderados abertos desenvolvidos internamente. O ecossistema de modelos ponderados abertos está sendo cada vez mais dominado por modelos nacionais de grande escala. Impressionante. Endereço do modelo:
Dados do modelo
Comparação de dados com capturas de tela do site da empresa.








