Todo el mérito es de Artificial Analysis por realizar esta evaluación comparativa, pero me preocupa mucho el momento oportuno. Y no estoy a favor de publicar resultados incompletos, incluso si vienen con la advertencia de que "los actualizaremos a medida que implementemos más optimizaciones". Esto se parece más a un intento continuo de calmar las preocupaciones sobre que las TPU se están comiendo la parte de Nvidia, lo cual es simplemente pánico alimentado por "expertos en IA", los mismos expertos que le darán una hoja de trucos de 1000 páginas para usar agentes de IA para hacer un negocio de ARR de 7 cifras durante el fin de semana de Acción de Gracias. En cualquier caso, los resultados a medias con descargos de responsabilidad solo son útiles cuando se sabe que el público dedicará tiempo a leerlos y comprenderlos. No cuando hay catastrofistas de IA acechando por todas partes. Y lo que es más importante, existe una clara diferencia entre la pila que Google usaría internamente para sus ejecuciones de TPU y la que está disponible para la comunidad actualmente. Por eso existe el foso CUDA: la madurez de la pila de software CUDA está una generación por delante de cualquier otra existente. Adiós y feliz Día de Acción de Gracias. Hora de comer patatas.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.