Nous avons testé le moteur d'inférence 2.0 de @gmi_cloud. Multimodal, rapide et fiable pour toutes les charges de travail. Il est clair que celui-ci est conçu pour les développeurs, pas pour les démonstrations.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.