Ne considérez pas les LLM comme des entités, mais comme des simulateurs. Par exemple, lors de l'exploration d'un sujet, ne vous demandez pas : «Que pensez-vous de xyz ?» Il n'y a pas de « vous ». La prochaine fois, essayez : « Quel serait un bon groupe de personnes pour explorer xyz ? Que diraient-ils ? » Le LLM peut canaliser/simuler de nombreuses perspectives, mais il n'a pas réfléchi à tel ou tel point depuis un certain temps et, au fil du temps, n'a pas forgé ses propres opinions comme nous en avons l'habitude. Si vous le forcez à réagir en utilisant votre propre personne, il vous fournira un résultat en adoptant un vecteur d'intégration de personnalité, implicite dans les statistiques de ses données d'ajustement, puis en simulant ce résultat. C'est tout à fait acceptable, mais c'est beaucoup moins mystérieux que ce que les gens attribuent naïvement au fait de « demander à une IA ».
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.