AK suggère, lors d'une interaction avec un LLM (Large Language Model), de limiter l'utilisation du « tu » et de privilégier les questions sur les experts du domaine. L'IA pourra ensuite simuler ces experts pour répondre aux questions, ce qui permettra d'obtenir de meilleurs résultats. Andrej Karpathy avait tenu des propos similaires il y a plus de deux ans lors du discours sur l'état du GPT. (Voir les commentaires) Andrej Karpathy : Ne considérez pas les Large Language Models (LLM) comme des « entités » vivantes et respirantes, mais plutôt comme des « simulateurs » incroyablement puissants. Par exemple, lorsque vous souhaitez explorer un sujet en profondeur, ne demandez jamais : Que pensez-vous de xyz ? Parce que le «tu» n'existe pas. La prochaine fois, essayez de poser la question différemment : « Si nous devions aborder le sujet xyz, quel serait le groupe de personnes le plus approprié (experts ou parties prenantes, par exemple) ? Que diraient-ils ? » Les grands modèles de langage peuvent facilement guider et simuler une grande variété de perspectives. Cependant, contrairement aux humains, ils ne développent pas leurs propres points de vue par le biais d'une « réflexion » et d'une « pensée » à long terme sur xyz. Si vous insistez pour utiliser le pronom « vous » afin de poser une question, le modèle sera contraint d'invoquer un « vecteur d'intégration de personnalité » implicite, basé sur les tendances statistiques des données qu'il affine, et d'adopter ensuite cette personnalité pour simuler une réponse. (Remarque : en d'autres termes, lorsque vous posez la question en utilisant le pronom « vous », l'IA applique simplement un masque « générique » basé sur les réponses les plus fréquentes des données d'entraînement pour correspondre à votre réponse, au lieu de générer une personnalité consciente d'elle-même.) Vous pouvez tout à fait procéder ainsi et obtenir la réponse. Cependant, j'ai constaté que beaucoup de personnes, par naïveté, réduisent la question à « demander à l'IA ce qu'elle pense », la considérant comme quelque chose de mystérieux. En réalité, une fois que l'on comprend comment elle est simulée, ce mystère disparaît.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.