Um desenvolvimento importante: a análise empírica aprofundada do OpenRouter sobre como os grandes modelos de linguagem (LLMs) são usados no mundo real. Com base em dados reais de chamadas de mais de 100 trilhões de tokens no OpenRouter, este estudo empírico examina o uso global do LLM em 2024-2025, com foco em responder às perguntas: "quem está usando o modelo, para que ele é usado e como ele é usado". Pontos principais: - Esta pesquisa, conduzida em conjunto pela empresa de capital de risco a16z e pelo provedor de serviços de inferência de IA OpenRouter, analisou dados reais de interação do LLM (London Linked Mastercard) de mais de 100 trilhões de tokens. Os dados provêm da plataforma OpenRouter, que conecta mais de 300 modelos de mais de 60 fornecedores, abrangendo usuários em todo o mundo, sendo que mais de 50% deles estão fora dos Estados Unidos. - A análise é baseada em metadados anônimos, sem envolver solicitações do usuário ou o texto específico do conteúdo gerado pelo modelo, para proteger a privacidade. Principais conclusões: - Código aberto vs. Código fechado: A participação de mercado dos modelos de código aberto está crescendo de forma constante, representando cerca de um terço do uso de tokens até o final de 2025. Em particular, os modelos de código aberto da China (como Qwen e DeepSeek) estão crescendo rapidamente, remodelando o cenário competitivo do mercado global de LLM (Limitação de Liderança em Carteira). Metade do relatório trata de como usamos modelos de código aberto e realizamos o máximo de simulações de papéis. Quem conhece o assunto sabe que os modelos de código aberto não têm tantas restrições. Eles também criaram um novo truque chamado "Efeito Sapato de Cristal da Cinderela", que significa que, quando um novo modelo é lançado, ele atinge o ponto G de um pequeno grupo de pessoas, satisfaz suas "necessidades essenciais" e, então, essas pessoas ficam viciadas nele e não conseguem se desapegar, não importa o que aconteça. O futuro pertence à era das "bonecas russas de IA". O relatório também afirma que cada vez mais pessoas não estão mais conversando com a IA, mas sim permitindo que ela acione diversas ferramentas para realizar o trabalho por conta própria. Isso é chamado de fluxo de trabalho de "raciocínio por procuração". https://t.co/j9wpZNRs6X
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.