El nuevo paradigma de agentes que observo en el MIT Hoy, en la conferencia EmTech del MIT, presencié una demostración que me hizo replantearme todo el campo de los agentes de IA. La empresa presentadora fue TinyFish, una compañía de perfil bastante bajo. Dos miembros de su equipo fundador son chinos, y ha conseguido casi 350 millones de RMB en financiación liderada por ICONIQ, pero hasta hoy nunca había presentado públicamente su producto principal. Lo que están haciendo ya es gestionar decenas de millones de operaciones de agentes web para Google y DoorDash... Esto no es una demostración de laboratorio; es un entorno de producción real. Los productos de TinyFish permiten que la IA navegue automáticamente por páginas web y complete tareas de nivel empresarial, igual que los humanos... Permite a la IA leer, comprender y manipular automáticamente páginas web en diferentes sitios web, ejecutar procesos de negocio, recopilar datos, enviar información y supervisar cambios sin necesidad de una API. Desde la recopilación de datos, la comparación de precios, el llenado de formularios y las verificaciones de inventario hasta las revisiones de cumplimiento y la fijación de precios dinámica, todo se puede lograr... Puede operar y ejecutar tareas en tiempo real en miles de sitios web. Esto significa que es posible ejecutar mil ChatGPT Atlas simultáneamente y luego ejecutar la misma respuesta diez millones de veces de forma continua... Un hecho que todos han pasado por alto El CEO de TinyFish, Sudheesh, compartió una idea sorprendente durante la presentación: Actualmente, todos los agentes de IA del mercado solo pueden operar en el 5% de la red. No es porque los desarrolladores carezcan de habilidades técnicas, sino porque todos están creando agentes basados en motores de búsqueda. El paradigma de búsqueda lleva mucho tiempo obsoleto. ¿Cómo se invalidó la búsqueda? Veamos un ejemplo muy sencillo: Amazon. Todas las páginas de productos de Amazon están completamente indexadas por Google y pueden ser rastreadas. Este es el escenario ideal para un motor de búsqueda. Pero, ¿qué ocurre cuando buscas "portátil" en Amazon? Verás decenas de miles de resultados. Productos patrocinados, reseñas falsas y descripciones generadas por IA abundan. Revisas unas cuantas páginas y te rindes, finalmente haces clic en una que "parece estar bien", finalizas la compra y te vas. Este no es un problema de Amazon. Es un problema del paradigma de búsqueda en sí: las clasificaciones se vuelven ineficaces cuando la cantidad de datos es demasiado grande. Google logró indexar millones de páginas de Amazon, pero esto no mejoró la utilidad de las búsquedas. Amazon creó su propio buscador, pero eso tampoco solucionó el problema. La web se ha vuelto demasiado grande. Incluso para las partes que ya han sido indexadas, el posicionamiento ya no es efectivo. Una búsqueda presupone que quieres "encontrar" algo. ¿Pero qué ocurre si necesitas "comprobarlo todo"? ¿Comparar todos los proveedores? ¿Verificar todas las opciones? En este punto, todo el paradigma se derrumbó. ¿Y el 95% restante? Lo peor es que lo que acabo de mencionar solo se aplica al 5% de la red que está indexada. ¿Dónde se esconde el 95% restante de la red? Portal de proveedores que requiere inicio de sesión - Sistema de salud autenticado - Bases de datos gubernamentales accesibles únicamente mediante la presentación de un formulario - Inteligencia competitiva que requiere navegación en varios pasos Los motores de búsqueda simplemente no pueden acceder a esto. No es un problema técnico, sino arquitectónico. No se puede indexar contenido que requiere interacción para acceder. Por lo tanto, nos enfrentamos a dos problemas: 1. El 5% de la red indexada se volvió inválida porque era demasiado grande. 2. El 95% de los datos importantes no están indexados en absoluto. Ambos problemas tienen la misma raíz: el paradigma de búsqueda presupone que los humanos evaluarán manualmente los resultados. Falla cuando se necesita información exhaustiva en lugar de opciones clasificadas. ¿Por qué las soluciones existentes no pueden resolver este problema? Quizás te estés preguntando: ¿Y qué pasa con RAG? ¿Qué pasa con una mejor integración? ¿Qué pasa con los agentes del navegador? Ninguno de ellos puede resolverlo. Porque todas heredan la limitación fundamental de la búsqueda: asumir que quieres "encontrar" algo, en lugar de "revisarlo todo". Cuando un equipo de compras necesita examinar los precios de la competencia en 200 portales de proveedores, las clasificaciones no serán de ayuda. Las búsquedas no servirán de nada cuando las compañías farmacéuticas necesiten encontrar pacientes para ensayos clínicos en miles de centros de investigación. No se trata de un problema de "este trabajo es tedioso y queremos automatizarlo". Se trata de un problema de "este análisis es simplemente imposible de realizar a la escala que necesitamos". De una web legible a una web ejecutable Sudheesh explicó su solución: No se trata de mejorar la búsqueda, sino de la infraestructura operativa. El sistema desarrollado por TinyFish puede: - Sistema de autenticación de inicio de sesión - Navegar por un flujo de trabajo de varios pasos - Extracción de datos estructurados - Ejecutar cientos de miles de sesiones paralelas simultáneamente Este es el paso de una "web legible" a una "web ejecutable". Los proxies de navegador (como Atlas de OpenAI) ayudan a los usuarios a navegar por los sitios web más rápidamente: una sesión a la vez, un navegador a la vez. Mino de TinyFish: 👉 Al igual que una "fábrica de IA", permite a las empresas crear, implementar y gestionar estos "agentes web" por sí mismas. Mino puede ejecutar cientos de miles de sesiones paralelas a escala de infraestructura, manteniendo la precisión en flujos de trabajo complejos que de otro modo requerirían semanas para que un equipo humano los completara. No es la diferencia entre una bicicleta y una motocicleta. Es la diferencia entre las bicicletas y una red de transporte de mercancías. Prueba a escala Esto no es una teoría TinyFish ya gestiona 30 millones de operaciones al mes para empresas como ClassPass, Google y DoorDash. El ejemplo de ClassPass es típico: necesitan reunir clases de decenas de miles de gimnasios. La mayoría de los gimnasios no tienen una API, solo sitios web de reservas que se actualizan manualmente. Los horarios de las clases cambian a diario y los precios varían según la hora, la ubicación y el nivel. Todos los métodos tradicionales fracasaron: - Entrada manual de datos: no se puede escalar, los datos siempre están desactualizados. - Rastreador web: Se bloquea cada vez que se rediseña el sitio web. - Integración de API: Las API de cola larga nunca se integrarán. Tras utilizar TinyFish, la cobertura de sus locales aumentó entre 3 y 4 veces, y los costes disminuyeron un 50%. Ejemplos más específicos del mundo real: 🏨 Hoteles Google Muchos hoteles en Japón utilizan sistemas obsoletos que no pueden acceder a la plataforma de agregación de Google. Los agentes de TinyFish pueden obtener automáticamente el inventario y los precios de estos hoteles; Permite a Google Hotels actualizarse en tiempo real sin necesidad de modificaciones de TI. Se logró una cobertura en tiempo real del 99%, se incrementó la frecuencia de actualización 20 veces y se gestionaron más de 10 millones de operaciones al mes. 🛵 DoorDash Implementar agentes de IA en cada ciudad para extraer automáticamente información sobre los menús, precios y promociones de los sitios web de la competencia. Actualizaciones por hora, deduplicación automática y detección de anomalías; Se integra automáticamente con el sistema de datos interno de DoorDash. Recopila millones de variables de precios cada mes; Se utiliza para ajustar dinámicamente los precios y optimizar la respuesta del mercado; El 95% de la recopilación de datos de mercado está automatizada; Mejoró la precisión del modelo de predicción en un 30%; Reducir significativamente el coste de los estudios manuales (originalmente más de 1200 horas-hombre al mes). ¿qué significa eso? La búsqueda ha funcionado bien durante los últimos 25 años porque la red es lo suficientemente pequeña como para que los humanos puedan evaluar manualmente los resultados de la clasificación. Internet es ahora tan grande que incluso las partes indexadas se han vuelto inmanejables. Y el 95% de internet nunca ha sido indexado. El próximo paradigma no se centra en una mejor búsqueda ni en una clasificación más inteligente. Se trata de la infraestructura operativa que permite la navegación, el razonamiento y la recuperación de información en toda la web: pública y privada, indexada y no indexada. La función de Agente se ha desarrollado mucho más rápido de lo esperado. En tan solo 36 meses, hemos pasado de la "IA que redacta correos electrónicos" a la "IA que ejecuta flujos de trabajo completos". Es posible que TinyFish ya haya tomado la delantera en la implementación real a escala empresarial. Están abriendo esta infraestructura a los desarrolladores. Si estás creando un producto de agente que requiere alta fiabilidad, esto podría ser una señal temprana a la que conviene prestar atención.
TinyFish permite a las empresas sustituir tareas repetitivas en páginas web por IA, logrando la atinyfish.aiinformación hasta las operaciones... TinyFish (@Tiny_Fish) ha obtenido 47 millones de dólares en financiación de Serie A de ICONIQ. Sitio web: https://t.co/kneIlDWvjf
