Claude dans le navigateur va perturber de nombreux services dont l'accès à l'API est réservé aux clients entreprises. Je lui avais précédemment demandé de trouver des données dans un outil d'analyse SEO populaire et de me les présenter au format JSON. Certes, ça a pris une éternité, mais c'est maintenant devenu un flux de travail automatisé de plus. Ainsi, si l'on considère que toute session de navigation peut être un agent contrôlant l'interface du navigateur pendant qu'un humain regarde (ou fait probablement autre chose), votre interface utilisateur n'est rien d'autre qu'une API de plus. Et il ne s'agit pas vraiment de scraping. C'est une version avec perte, actuellement basée sur des captures d'écran et extrêmement lente, de ce que ce sera dans quelques années. Mais cette solution existe déjà et elle est hautement automatisable. Elle permettra de collecter bien plus de données qu'avec une approche manuelle. Sessions parallèles. Automatisation sans interface graphique, allant au-delà de Puppeteer. Le tout contrôlé par des agents fonctionnant en continu. Vous devriez sérieusement envisager de limiter le débit de TOUTES les routes frontales. Car les zombies arrivent.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.