Pourquoi les modèles ne sont-ils pas si fiables que toutes les invites « équivalentes » fonctionnent aussi bien l’une que l’autre ? Parce que la descente de gradient produit une généralisation « irrégulière ». Mais le principal atout des optimiseurs d'invite réside dans leur capacité à faire émerger de *nouvelles* informations sur l'environnement/la tâche qui n'étaient même pas explicitement mentionnées dans la spécification d'origine. Cela peut s'expliquer par le fait que ces informations sont subtiles, de bas niveau, ou encore dépendantes du modèle*. @ChrisGPotts les appelle les « exigences latentes ». Rappelons que le langage naturel est intrinsèquement ambigu, mais que la résolution de cette ambiguïté varie selon le locuteur.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.