Tenía especial curiosidad por preguntarle a @karpathy por qué los coches autónomos tardaron más de una década desde las excelentes demostraciones hasta su mínima implementación. Andrej lideró el área de IA en Tesla durante 5 años. Realmente quería saber si estas fricciones deberían alargar nuestros plazos de desarrollo de la IAG, o si eran propias de la conducción autónoma. Conducir conlleva un coste muy elevado en caso de fallo. Los humanos somos conductores sorprendentemente fiables: sufrimos un accidente grave cada 400 000 millas (640 000 km) o 7 años. Los coches autónomos deben igualar o superar este nivel de seguridad antes de poder implementarse. Pero ¿ocurre lo mismo en la mayoría de los ámbitos? Antes de la entrevista, me parecía que casi todos los ámbitos en los que querríamos integrar la IAG (Inteligencia Artificial General) tienen un coste de fallo mucho menor. Si a los ingenieros de software totalmente autónomos no se les permitiera cometer errores durante siete años, el despliegue sería, sin duda, extremadamente lento. Andrej planteó un punto interesante que no había escuchado antes: en comparación con la conducción autónoma, la ingeniería de software tiene un coste de fracaso mayor (y potencialmente ilimitado): Si escribes código real para producción, cualquier error podría generar una vulnerabilidad de seguridad. Cientos de millones de números de la Seguridad Social podrían filtrarse. En la conducción autónoma, si algo sale mal, podrías resultar herido. Hay consecuencias peores. Pero en el software, el potencial de desastres es prácticamente ilimitado. En cierto modo, la ingeniería de software es un problema mucho más complejo que la conducción autónoma. La conducción autónoma es solo una de las miles de actividades que realizamos. Es casi como un ámbito muy específico. En cambio, cuando hablamos de ingeniería de software en general, el campo es mucho más amplio. Existe otra posible razón por la que la transición de los Modelos de Aprendizaje Automático (MLA) a la Inteligencia Artificial General (IAG) ampliamente implementada podría ocurrir mucho más rápido: los MLA nos proporcionan percepción, representaciones y sentido común (para lidiar con ejemplos fuera de distribución) de forma gratuita, mientras que estos elementos tuvieron que ser moldeados desde cero para los coches autónomos. Le pregunté a Andrej al respecto. No sé cuánto estamos obteniendo gratis. Los LLM aún son bastante falibles y tienen muchas lagunas que todavía deben subsanarse. No creo que estemos obteniendo una generalización mágica de forma automática. Otro aspecto que quería retomar es que los coches autónomos aún están lejos de ser una realidad. Su despliegue es bastante limitado. Incluso Waymo cuenta con muy pocos vehículos. Han creado algo futurista. Han tenido que frenar ese futuro, pero para ello han tenido que hacerlo antieconómico. Además, cuando ves estos coches sin conductor, te das cuenta de que hay más intervención humana de la que cabría esperar. En cierto modo, no hemos eliminado a la persona, sino que la hemos trasladado a un lugar donde no se la puede ver.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.