Un avance importante: el análisis empírico en profundidad de OpenRouter sobre cómo se utilizan los modelos de lenguaje grandes (LLM) en el mundo real. Basado en datos de llamadas reales de más de 100 billones de tokens en OpenRouter, este estudio empírico examina el uso global de LLM en 2024-2025, centrándose en responder las preguntas de "quién está usando el modelo, para qué se usa y cómo se usa". Puntos clave: - Esta investigación, realizada conjuntamente por la firma de capital de riesgo a16z y el proveedor de servicios de inferencia de IA OpenRouter, analizó datos reales de interacción LLM de más de 100 billones de tokens. - Los datos provienen de la plataforma OpenRouter, que conecta más de 300 modelos de más de 60 proveedores, cubriendo usuarios de todo el mundo, de los cuales más del 50% provienen de fuera de Estados Unidos. - El análisis se basa en metadatos anónimos, sin involucrar indicaciones del usuario ni el texto específico del contenido generado por el modelo, para proteger la privacidad. Principales hallazgos: - Código abierto vs. Código cerrado: La participación de mercado de los modelos de código abierto está creciendo de manera constante y representará aproximadamente un tercio del uso de tokens para fines de 2025. En particular, los modelos de código abierto de China (como Qwen y DeepSeek) están creciendo rápidamente, lo que está transformando el panorama competitivo del LLM global. La mitad del informe trata sobre cómo usamos los modelos de código abierto y cómo realizamos la mayor parte del juego de roles. Quienes lo saben saben que los modelos de código abierto no tienen tantas restricciones. - También se les ocurrió un nuevo truco llamado "Efecto del zapato de cristal de Cenicienta", que significa que cuando sale un nuevo modelo, toca el punto G de un pequeño grupo de personas, resuelve sus "necesidades esenciales", y luego estas personas se quedan atrapadas en él y no pueden alejarse pase lo que pase. El futuro pertenece a la era de las "muñecas anidadas con IA". El informe también afirma que cada vez más personas ya no conversan con la IA, sino que la dejan llamar a un conjunto de herramientas para que haga el trabajo por sí misma. Esto se denomina flujo de trabajo de "razonamiento proxy". https://t.co/j9wpZNRs6X
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.