La publication par OpenAI d'un GPT « plus conversationnel » est probablement une excellente nouvelle pour de nombreux cas d'utilisation de chatbots superficiels. Je souhaite simplement un modèle optimisé pour une extraction et une vérification précises des données. À l'opposé d'un modèle conversationnel. Car c'est là la véritable caractéristique du LLM pour les entreprises SaaS.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.