Ce message contient de la désinformation complète. Les LLM sont des compresseurs avec perte ! de *données d'entraînement*. Les LLM compressent sans perte les *invites*, en interne. C'est ce que démontre cet article. Source : je suis l'auteur de « Language Model Inversion », l'article original sur ce sujet.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.