Un développement majeur : l’analyse empirique approfondie d’OpenRouter sur la manière dont les grands modèles de langage (LLM) sont utilisés dans le monde réel. S’appuyant sur des données d’appels réelles de plus de 100 000 milliards de jetons sur OpenRouter, cette étude empirique examine l’utilisation mondiale du LLM en 2024-2025, en s’attachant à répondre aux questions suivantes : « qui utilise le modèle, à quoi sert-il et comment est-il utilisé ? » Points clés : - Cette recherche, menée conjointement par la société de capital-risque a16z et le fournisseur de services d'inférence IA OpenRouter, a analysé des données d'interaction LLM réelles de plus de 100 billions de jetons. - Ces données proviennent de la plateforme OpenRouter, qui connecte plus de 300 modèles de plus de 60 fournisseurs, couvrant des utilisateurs du monde entier, dont plus de 50 % se trouvent en dehors des États-Unis. - L'analyse est basée sur des métadonnées anonymes, sans impliquer les demandes de l'utilisateur ni le texte spécifique du contenu généré par le modèle, afin de protéger la vie privée. Principales conclusions : - Logiciels libres vs logiciels propriétaires : La part de marché des modèles open source est en constante augmentation, représentant environ un tiers de l’utilisation des jetons d’ici fin 2025. En particulier, les modèles open source chinois (tels que Qwen et DeepSeek) connaissent une croissance rapide, redessinant le paysage concurrentiel du LLM mondial. La moitié du rapport explique comment nous utilisons des modèles open source et pratiquons principalement le jeu de rôle. Les spécialistes savent que les modèles open source sont moins restrictifs. Ils ont également inventé une nouvelle astuce appelée « l'effet soulier de verre de Cendrillon », qui signifie que lorsqu'un nouveau modèle sort, il touche le point G d'un petit groupe de personnes, répond à leurs « besoins essentiels », et ensuite ces personnes sont accros et impossibles à déloger, quoi qu'il arrive. L'avenir appartient à l'ère des « poupées russes de l'IA ». Le rapport indique également que de plus en plus de personnes ne dialoguent plus avec l'IA, mais la laissent plutôt utiliser divers outils pour effectuer le travail. On parle alors de « raisonnement par procuration ». https://t.co/j9wpZNRs6X
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.