El año que viene, Symbolic dará grandes noticias; estén atentos. Entonces, haré una pequeña presentación y hablaré sobre el enfoque que nos permitió lograr lo que anunciaremos. Pero, para ser más precisos, mi ventaja secreta como director de tecnología es: simplemente no me creo el revuelo por la IA 🤷♂️
No me creo el revuelo sobre los repositorios de "IA" con un montón de estrellas en GitHub. Los clono y me doy cuenta de que no hay mucho trabajo real, y cualquier cosa interesante que contengan la puedo tomar y poner en mi propia aplicación sin añadir ninguna dependencia.
No me creo el revuelo de que "el mundo está a punto de cambiar instantáneamente por este secreto que vi en el laboratorio". No creí en esa publicación tan vaga entonces y no me la creo ahora. Te equivocas sobre lo que hay en el laboratorio y sobre el mundo. Pusiste los ojos en blanco.
No me creo el revuelo sobre cómo el lanzamiento de esta o aquella función de Frontier Lab ha arruinado por completo esta o aquella categoría de productos. A diferencia de la mayoría de ustedes, yo pongo pausa en el video de demostración, miro con desdén el resultado y dedico tiempo a evaluarlo, y normalmente es una porquería, falso y exagerado.
No me creo el bombo publicitario de que "la IA puede escribir noticias ahora, así que el contenido está manipulado". Me lo han dicho desde GPT-3 y no era cierto entonces y sigue sin serlo. Sé que esto es un asunto profesional porque trabajo con periodistas que intentan que la IA escriba noticias.
No me creo el revuelo en torno a los modelos de programación, o al menos no sus versiones más extremas. La rentabilidad de tener un conocimiento profundo sobre lo bueno y lo malo en el arte de la ingeniería de software ha aumentado, no disminuido gracias a la IA. (Aunque los desarrolladores júnior están en serios problemas).
No me creí el revuelo sobre las bases de datos vectoriales. Seguí usando Postgres, y pgvector era bastante bueno al principio y ha mejorado. Sin embargo, el listón para añadir una nueva dependencia tiene que ser extremadamente alto, y "tiene muchas estrellas", ¿no?
No me creo el revuelo sobre los agentes. Los buenos siguen siendo muy simples y no hacen gran cosa antes de volver a consultar con un humano. Los errores de los agentes no se cancelan entre sí, sino que se acumulan. Así que es mejor mantener las cosas como están mientras sea posible.
No me creo las predicciones de los laboratorios de vanguardia. Es decir, ¡POR SUPUESTO que las predicciones de los laboratorios sobre su futuro rendimiento en los benchmarks se han cumplido! ¿Has visto las cifras relacionadas con el "aumento de los números" en estos casos? Sin embargo, la desconexión entre esto y la "inteligencia" no ha hecho más que crecer.
No me creo el revuelo sobre los LLM. Se trata de una tecnología muy limitada y frágil, útil para obtener secuencias, y requiere mucha ingeniería de software (aunque el revuelo por la ingeniería de contexto es real) para dirigir a los usuarios hacia regiones económicamente valiosas del espacio latente. LLM no es igual a IA general.
En Symbolic hemos visto increíbles resultados al mantener la calma, no dejarnos llevar y mantener la cabeza baja y hacer silenciosamente lo único que uno debe hacer absolutamente si quiere tener un negocio: identificar y resolver los problemas reales de los clientes.
Como desarrollador en IA, ha habido mucho alfa en ignorar la publicidad exagerada sobre IA, las publicaciones vagas, el FOMO maníaco y los threadbois, y tratar a los LLM como una herramienta en la caja de herramientas y como otra API REST a la que puedo llamar y de la que puedo obtener una respuesta útil.
Mi predicción de IA para 2026 es que la cantidad de alfa en ignorar el 90% de todo el parloteo de IA solo aumentará a medida que los números de referencia se alejen cada vez más de la dura realidad de incorporar LLM en funciones reales para clientes reales que están haciendo un trabajo real.