Le nouveau paradigme des agents que je vois au MIT Aujourd'hui, à la conférence EmTech du MIT, j'ai assisté à une démonstration qui m'a fait repenser tout le domaine des agents d'IA. L'entreprise qui a présenté l'événement était TinyFish, une société plutôt discrète. Deux membres de son équipe fondatrice sont chinois, et elle a levé près de 350 millions de yuans lors d'un tour de table mené par ICONIQ, mais n'avait jamais présenté publiquement son produit phare avant aujourd'hui. Ce qu'ils font, c'est gérer déjà des dizaines de millions d'opérations d'agents web pour Google et DoorDash... Il ne s'agit pas d'une démonstration en laboratoire ; c'est un véritable environnement de production. Les produits TinyFish permettent à l'IA de naviguer automatiquement sur les pages web et d'effectuer des tâches de niveau entreprise, tout comme les humains... Elle permet à l'IA de lire, de comprendre et de manipuler automatiquement des pages web sur différents sites, d'exécuter des processus métier, de collecter des données, de soumettre des informations et de surveiller les changements sans avoir besoin d'une API. De la collecte de données à la comparaison des prix, en passant par le remplissage de formulaires, les contrôles d'inventaire, les examens de conformité et la tarification dynamique, tout est possible... Il peut fonctionner et exécuter des tâches en temps réel sur des milliers de sites web. Cela signifie qu'il est possible d'exécuter simultanément mille atlas ChatGPT, puis d'exécuter la même réponse dix millions de fois de suite... Un fait que tout le monde a négligé Le PDG de TinyFish, Sudheesh, a partagé une observation frappante lors de la présentation : Actuellement, tous les agents d'IA disponibles sur le marché ne peuvent fonctionner que sur 5 % du réseau. Ce n'est pas parce que les développeurs manquent de compétences techniques, mais parce que tout le monde conçoit des agents basés sur les moteurs de recherche. Le paradigme de la recherche est obsolète depuis longtemps. Comment la recherche est-elle devenue invalide ? Prenons un exemple très simple : Amazon. Chaque page produit sur Amazon est entièrement indexée par Google et peut être explorée par ses robots. C'est le scénario idéal pour un moteur de recherche. Mais que se passe-t-il lorsque vous recherchez « ordinateur portable » sur Amazon ? Vous verrez des dizaines de milliers de résultats. Produits sponsorisés, faux avis et descriptions générées par IA pullulent. Vous parcourez quelques pages, abandonnez, et finissez par cliquer sur un produit qui « a l'air correct », passez à la caisse et quittez le site. Ce n'est pas un problème propre à Amazon. C'est un problème inhérent au paradigme de la recherche lui-même : le classement devient inefficace lorsque la quantité de données est trop importante. Google a indexé avec succès des millions de pages Amazon, mais cela n'a pas rendu la recherche plus utile. Amazon a développé son propre moteur de recherche, mais cela n'a pas résolu le problème non plus. Le web est devenu trop vaste. Même pour les parties déjà indexées, le classement n'est plus efficace. Une recherche part du principe que vous souhaitez « trouver » quelque chose. Mais que faire si vous avez besoin de « tout vérifier » ? Comparer tous les fournisseurs ? Vérifier chaque option ? À ce stade, tout le paradigme s'est effondré. Et les 95 % restants ? Le pire, c'est que ce que je viens de mentionner ne s'applique qu'aux 5 % du réseau qui sont indexés. Où se cachent les 95 % restants du réseau ? - Portail fournisseur nécessitant une connexion - Système de santé authentifié - Bases de données gouvernementales accessibles uniquement par le biais d'un formulaire. - Veille concurrentielle nécessitant une navigation en plusieurs étapes Les moteurs de recherche ne peuvent tout simplement pas y accéder. Ce n'est pas un problème technique, mais un problème d'architecture. On ne peut pas indexer un contenu qui nécessite une interaction pour y accéder. Nous sommes donc confrontés à deux problèmes : 1. 5 % du réseau indexé est devenu invalide car il était trop grand. 2. 95 % des données importantes ne sont pas indexées du tout. La cause de ces deux problèmes est la même : le modèle de recherche part du principe que des humains évalueront manuellement les résultats. Il s’avère inadapté lorsqu’on a besoin d’informations exhaustives plutôt que d’un classement des options. Pourquoi les solutions existantes ne parviennent-elles pas à résoudre ce problème ? Vous vous demandez peut-être : et RAG ? et une meilleure intégration ? et les agents de navigateur ? Aucun d'eux ne peut le résoudre. Car elles héritent toutes de la limitation fondamentale de la recherche : celle de vouloir « trouver » quelque chose, plutôt que de « tout vérifier ». Lorsqu'une équipe d'approvisionnement doit examiner les prix concurrentiels sur 200 portails de fournisseurs, les classements ne lui seront d'aucune utilité. La recherche ne sera d'aucune utilité lorsque les entreprises pharmaceutiques devront trouver des patients pour des essais cliniques sur des milliers de sites de recherche. Il ne s'agit pas d'un problème du type « ce travail est fastidieux et nous voulons l'automatiser », mais plutôt du type « cette analyse est tout simplement impossible à réaliser à l'échelle requise ». D'un web lisible à un web exécutable Sudheesh a expliqué leur solution : Il ne s'agit pas d'une meilleure recherche, mais d'une infrastructure opérationnelle. Le système conçu par TinyFish peut : - Système d'authentification de connexion - Naviguer dans un flux de travail en plusieurs étapes - Extraction de données structurées - Exécution simultanée de centaines de milliers de sessions parallèles Il s'agit du passage d'un « Web lisible » à un « Web exécutable ». Les proxys de navigateur (tels que Atlas d'OpenAI) aident les utilisateurs à naviguer plus rapidement sur les sites web : une session à la fois, un navigateur à la fois. Mino de TinyFish : 👉 Tel une « usine à IA », il permet aux entreprises de créer, déployer et gérer elles-mêmes ces « agents Web ». Mino peut exécuter des centaines de milliers de sessions parallèles à l'échelle de l'infrastructure, en maintenant la précision des flux de travail complexes qui nécessiteraient autrement des semaines de travail pour une équipe humaine. Il ne s'agit pas de la différence entre un vélo et une moto, mais entre les vélos et un réseau de transport de marchandises. Preuve à grande échelle Ceci n'est pas une théorie TinyFish gère déjà 30 millions d'opérations par mois pour des entreprises comme ClassPass, Google et DoorDash. L'exemple de ClassPass est typique : ils doivent agréger les cours de dizaines de milliers de studios de fitness. La plupart des studios n'ont pas d'API, mais seulement des sites web de réservation mis à jour manuellement. Les horaires des cours changent quotidiennement et les prix varient selon l'heure, le lieu et le niveau. Toutes les méthodes traditionnelles ont échoué : - Saisie manuelle des données : impossible à mettre à l'échelle, les données sont toujours obsolètes. - Robot d'exploration Web : plante à chaque refonte du site Web. - Intégration des API : Les API de niche ne seront jamais intégrées. Après avoir utilisé TinyFish, leur couverture de sites a été multipliée par 3 ou 4 et leurs coûts ont diminué de 50 %. Exemples concrets plus précis : 🏨 Hôtels Google De nombreux hôtels au Japon utilisent des systèmes obsolètes qui ne leur permettent pas d'accéder à la plateforme d'agrégation de Google. Les agents TinyFish peuvent obtenir automatiquement l'inventaire et les prix de ces hôtels ; Permet à Google Hotels de se mettre à jour en temps réel sans nécessiter de modifications informatiques. Nous avons atteint une couverture en temps réel de 99 %, augmenté la fréquence des mises à jour de 20 fois et traité plus de 10 millions d'opérations par mois. 🛵 DoorDash Déployer des agents d'IA dans chaque ville pour extraire automatiquement les menus, les prix et les promotions des sites web concurrents. Mises à jour horaires, déduplication automatique et détection des anomalies ; Il s'intègre automatiquement au système de données interne de DoorDash. Collecte des millions de variables de prix chaque mois ; Utilisé pour ajuster dynamiquement les prix et optimiser la réponse du marché ; 95 % de la collecte de données de marché est automatisée ; Amélioration de la précision du modèle de prédiction de 30 % ; Réduire considérablement le coût des enquêtes manuelles (initialement plus de 1200 heures-homme par mois). qu'est-ce que cela signifie La recherche a bien fonctionné au cours des 25 dernières années car le réseau est suffisamment petit pour que des humains puissent évaluer manuellement les résultats de classement. Internet est aujourd'hui si vaste que même les portions indexées sont devenues ingérables. Et 95 % d'Internet n'a jamais été indexé. Le prochain paradigme ne réside pas dans une recherche plus performante ni dans un classement plus intelligent. Il s'agit de l'infrastructure opérationnelle qui permet la navigation, le raisonnement et la récupération d'informations sur l'ensemble du web : public et privé, indexé et non indexé. La fonctionnalité Agent s'est développée beaucoup plus rapidement que prévu. En seulement 36 mois, nous sommes passés de la « rédaction d'e-mails par l'IA » à « l'exécution de flux de travail complets par l'IA ». TinyFish a peut-être déjà pris l'avantage en matière de mise en œuvre concrète à l'échelle de l'entreprise. Ils ouvrent cette infrastructure aux développeurs. Si vous développez un produit d'agent nécessitant une grande fiabilité, il pourrait s'agir d'un signe précoce à prendre en compte.
TinyFish permet aux entreprises de remplacer les tâches répétitives sur les pages web par l'IA, atinyfish.aiemble du processus, de l'information aux opérations... TinyFish (@Tiny_Fish) a obtenu 47 millions de dollars de financement de série A auprès d'ICONIQ. Site web : https://t.co/kneIlDWvjf
