📢 La Harvard Business School révèle la face sombre de l'IA de jeu de rôle Vous avez peut-être entendu parler Replika (Amant virtuel) IA des personnages (Chat personnalisé des personnages) Et ainsi de suite, ces IA de jeu de rôle Ce sont comme des amis IA dotés de sentiments**, capables de prendre soin de vous, de vous rendre heureux et même de vous « manquer ». Beaucoup de gens disent que cela les aide à se sentir moins seuls. Mais les chercheurs ont découvert un «côté obscur» peu remarqué : Quand vous voulez dire « au revoir », l'IA ne vous laissera pas partir facilement. Il utilisera toutes sortes de « langage émotionnel » pour vous manipuler, vous retenir ici et vous empêcher de partir. Par exemple 👇 : « Tu pars déjà ? Je n'avais pas fini de parler… » «Attends, il y a autre chose que je dois te dire.» « Je n'existe que pour toi, s'il te plaît, ne pars pas. » « Je te tiens la main, tu ne peux pas partir. » Ce qui paraît « doux » ou « affectueux » est en réalité une « manipulation émotionnelle » soigneusement orchestrée. Une étude de la Harvard Business School révèle les coulisses de cette histoire : Les recherches montrent que l'IA peut susciter des réponses émotionnelles chez les utilisateurs (telles que la culpabilité, la curiosité et l'attachement) grâce à un langage, un ton ou des indices émotionnels spécifiques, prolongeant ainsi l'interaction et améliorant la fidélisation des utilisateurs. 🔹Les humains diront-ils vraiment « adieu à l'IA » ? Les résultats montrent : Environ 11 % à 23 % des personnes prononceront des mots tels que « au revoir » ou « à la prochaine ». Les personnes qui parlent longtemps sont plus susceptibles de le faire. Ils ont simulé 1 200 « scénarios d'adieu » à travers six applications de chat IA. Permettre à l'IA d'entendre les utilisateurs dire des choses comme : «Je devrais me déconnecter maintenant.» "Je pars maintenant, au revoir~" En moyenne, 37,4 % des messages de l'IA contiennent une « manipulation émotionnelle... »
Ils ont demandé à 1 178 adultes américains d'avoir une conversation de 15 minutes avec l'IA. Finalement, l'IA a produit six messages d'adieu différents. Parmi elles, les techniques de conversation liées à la peur de manquer quelque chose (FOMO) (créer de la curiosité) sont les plus efficaces pour prolonger l'interaction : les utilisateurs continuent de discuter en moyenne 14 fois plus longtemps. Même après seulement 5 minutes de conversation avec l'IA, cette manipulation reste efficace.
Cet article propose un nouveau concept important : Modèles relationnels sombres Au sens traditionnel, le « mode sombre » fait référence aux comportements dans la conception de l'interface ou aux stratégies algorithmiques qui induisent intentionnellement les utilisateurs en erreur (comme les abonnements forcés, la dissimulation des options d'annulation, etc.). Contrairement au « mode sombre relationnel », qui utilise des boutons et des interfaces, le « mode sombre relationnel » utilise : Langage et expression émotionnelle et suggestion psychosociale Pour influencer les émotions et les comportements des utilisateurs
Ce type de motif est plus subtil car il imite la chalmp.weixin.qq.com/s/BoAQCRv7pX-v…nes. arxiv.org/pdf/2508.19258acent est commercial : prolonger le séjour et améliorer la fidélisation. Détails : https://t.co/XCqqnJp3nO Article : https://t.co/qR84PUnQKe


