Avez-vous vu « XX Guide » tout le temps ces derniers temps ? Même Ma Dong-seok n'a pas pu s'empêcher de se plaindre. Je ressens la même chose. Quand je vois des tonnes de tweets sur les « Guides XX », ma première réaction est de critiquer Musk pour avoir encore modifié l'algorithme. C'est comme quand Lai Zong a changé le fil d'actualité de Weibo, passant d'un tri par durée d'abonnement aux recommandations algorithmiques : il avait essuyé de nombreuses critiques. Il semblerait que tout soit la faute de l'algorithme : celui-ci manipule les préférences et crée des conflits dans l'ombre, nous enfermant dans des cocons d'information. Et si tout cela n'était qu'une illusion ? Et si le monde était toujours aussi fragmenté et rempli de cocons, même sans algorithmes ? La plateforme sociale la plus « pure » pourrait « automatiquement » faire évoluer tout ce que nous détestons aujourd'hui ! Avant de vous précipiter pour réfuter, examinons une expérience très intéressante qui vient d'être publiée. Une étude de l'Université d'Amsterdam, aux Pays-Bas, intitulée « Peut-on améliorer les réseaux sociaux ? Tester différentes interventions persuasives à l'aide de simulations sociales génératives », a utilisé l'intelligence artificielle pour mener une expérience de simulation. Les chercheurs ont créé une version minimaliste d'une plateforme sociale sans recommandations algorithmiques, semblable aux premières versions de Twitter et Weibo, avec uniquement les fonctions de publication, de partage et d'abonnement. Cependant, au lieu d'utiliser de vraies personnes, ils ont eu recours à un modèle de langage étendu (LLM) pour simuler 500 utilisateurs virtuels aux personnalités différentes. Ces utilisateurs virtuels, dotés d'une intelligence artificielle, présentaient des opinions politiques, des intérêts et des origines variés. (D'ailleurs, il semblerait que leur inspiration provienne d'une ville virtuelle appelée Smallville, créée par Stanford à l'aide de GPT-4. Vingt-cinq humains virtuels, dotés d'intelligence artificielle, vivaient dans cette ville. Ils avaient un emploi, discutaient, organisaient des événements sociaux, se faisaient de nouveaux amis et organisaient même des fêtes pour la Saint-Valentin. Chaque habitant de la ville avait une personnalité et une histoire uniques.) Devinez quel sera le résultat ? Environ 50 000 interactions ont rapidement révélé trois problèmes typiques des médias sociaux : 1. La formation de « chambres d'écho » : les humains virtuels de l'IA « prennent rapidement parti » sans avoir besoin d'être « nourris » par un algorithme. Ceux qui ont des positions similaires se suivent et forment bientôt plusieurs petits cercles, avec presque aucune interaction entre les cercles. 2. Les influenceurs monopolisent le trafic : 10 % des utilisateurs les plus actifs ont 75 à 80 % des abonnés. 3. Les voix extrêmes sont amplifiées : les opinions aux positions plus claires et plus extrêmes reçoivent davantage de partages et d’attention. Ils ont ensuite testé six interventions au niveau de la plateforme, sélectionnées dans la littérature, et ont constaté que les améliorations étaient extrêmement limitées. Aucune de ces interventions n'a complètement perturbé les mécanismes sous-jacents à l'origine de ces symptômes, et certaines ont même aggravé les problèmes. Nous avons évalué six interventions. Si plusieurs ont montré des effets positifs modestes, aucune n'a permis de résoudre complètement les problèmes de fond. De plus, les améliorations dans un domaine se sont souvent accompagnées d'une aggravation dans un autre. (Par exemple, le « tri par date » a réduit les inégalités mais a exacerbé l'« effet Prism » ; l'« algorithme de pontage » a atténué l'« effet Prism » mais a exacerbé les inégalités.) Les trois principaux problèmes qui affectent les réseaux sociaux — les bulles informationnelles, la concentration des influences et l'amplification des voix extrêmes — trouvent probablement leur origine dans les comportements sociaux humains en ligne eux-mêmes, et sont peut-être moins liés aux recommandations algorithmiques qu'on ne le pense. C'est nous-mêmes qui recherchons activement ces « chambres d'écho », et c'est nous-mêmes qui conférons aux personnes aux opinions extrêmes le statut d'« influenceurs ». Cela explique également l'existence de la « loi sur les listes de surveillance » : @HeSenbao : Il y a quelques années, un dicton est devenu populaire sur Weibo, appelé la « loi de la liste d’abonnements », qui signifie en gros que si quelqu’un dit effrontément des bêtises, vous trouverez forcément quelques comptes dans sa liste d’abonnements. @FantasyManLiu : Les sociologues étudient déjà ce phénomène. Avant l’ère de l’information, les individus recevaient passivement l’information, et sa diffusion était principalement unidirectionnelle. À l’ère de la communication bidirectionnelle, les sources d’information filtrent les publics, et ces derniers filtrent activement les sources d’information. Par conséquent, le choix des sources d’information par le public peut refléter son niveau cognitif, son niveau de compréhension et sa position sur le sujet. Ce ne sont pas les algorithmes qui déchirent les réseaux sociaux ; c’est simplement la réalité d’aujourd’hui. Si nous nous sentons si divisés, c’est peut-être tout simplement parce que les algorithmes nous obligent à voir un monde que nous ne verrions pas autrement. Avant l'avènement des réseaux sociaux, nous étions entourés de personnes qui nous ressemblaient beaucoup, et les journaux et les émissions de télévision que nous regardions présentaient une réalité harmonieuse, filtrée par les rédacteurs en chef. Désormais, les algorithmes ont mis au jour toutes ces voix qui existaient mais qui étaient auparavant réduites au silence. Tombkeeper défend une théorie classique du « taux d'augmentation plus élevé et du débit réduit », qui partage un point de vue similaire. En substance, depuis 2017, la politique d'« augmentation du débit et de réduction des tarifs » a entraîné une explosion du nombre d'utilisateurs d'Internet, attirant des profils très divers et provoquant une montée des opinions extrêmes. Le sentiment de division que vous éprouvez n'est pas dû au fait que l'algorithme crée des conflits, mais au fait que l'algorithme vous permet de voir un monde réel, diversifié et parfois même d'une complexité déconcertante. Je pense que les plateformes de médias sociaux ont tout intérêt à briser les barrières informationnelles. La raison est simple : si les algorithmes ne vous montrent que ce qui vous plaît, vous vous en lasserez vite. Pour vous fidéliser et vous inciter à rester plus longtemps sur la plateforme, les algorithmes doivent constamment vous surprendre en vous recommandant du contenu inédit susceptible de vous intéresser. Par conséquent, je pense que Lao Ma et Lai Zong optimiseront l'algorithme. Malgré divers problèmes persistants, son évolution finira par être positive. C'est pourquoi, bien que je critique souvent les algorithmes de Jack Ma et Lai, je me fie aussi beaucoup aux notifications push des plateformes. On me demande fréquemment d'où viennent mes informations, et je l'ai déjà dit à plusieurs reprises : mes principales sources sont les notifications push de X et Hacker News. J'utilise presque exclusivement la fonctionnalité « Pour vous » de X, plutôt que la fonctionnalité « Abonnements » triée par date et par nombre d'abonnements, car l'algorithme me permet souvent de découvrir des contenus intéressants que je ne suivais pas auparavant. L'article, intitulé « Peut-on réparer les réseaux sociaux ? », se conclut par une déclaration très pertinente : Le fait que ces problèmes puissent « émerger » d'une plateforme aussi simple suggère que les difficultés ne résident peut-être pas dans les détails d'implémentation de l'algorithme, mais dans des mécanismes structurels plus profonds : elles découlent de la dynamique complexe entre « l'interaction avec le contenu » et « la formation du réseau ». > Le « retweet » ne se limite pas à amplifier un contenu ; il contribue à « construire » le réseau social. Les utilisateurs découvrent d'autres personnes grâce aux retweets des comptes qu'ils suivent déjà. > Cela implique un mécanisme fondamental : la nature « émotionnelle, réactive et partisane » de nos partages détermine directement qui est vu et qui gagne des abonnés. > Cela crée un cercle vicieux qui s'auto-alimente : les interactions émotionnelles favorisent le développement des réseaux sociaux, et ces réseaux, à leur tour, façonnent votre exposition future à l'information. Ce cycle renforce constamment l'homogénéité idéologique, les inégalités d'accès à l'attention et la surreprésentation des voix extrêmes. > Nos conclusions remettent en question l'idée reçue selon laquelle « les dysfonctionnements des médias sociaux sont principalement dus à la curation algorithmique ». Au contraire, ces problèmes pourraient être liés à l'architecture même des médias sociaux : un réseau social qui se développe grâce à un « partage émotionnel et réactif ». > Si tel est le cas, l'amélioration de l'environnement discursif en ligne ne peut se faire par de simples « correctifs » techniques ; elle nous oblige à repenser les dynamiques d'interaction et de visibilité les plus fondamentales qui définissent ces environnements. Le problème se retrouve donc au point de départ. Puisque la cause profonde du problème ne réside pas dans l'algorithme, mais dans le « partage émotionnel et réactif », une simple mise à jour de la technologie de la plateforme ne suffit pas. Bien que cet article n'ait pas apporté de solution, il nous a au moins rappelé qu'en tant qu'utilisateurs, nous pouvons nous-mêmes apporter des changements. Tout comme le « Guide XX » mentionné au début, pourquoi est-ce que je le vois sans cesse ? En y réfléchissant bien, ce n’est pas qu’il soit omniprésent sur mon écran. C’est juste que j’oublie les autres tweets après les avoir lus, mais ce type de contenu est le plus facile à susciter des émotions, à partager et à commenter, ce qui a pour effet de le renforcer encore et encore. À ce stade, l'approche de Ma Dong-seok était très astucieuse : il l'a mentionné brièvement, mais en y faisant référence comme au « Guide du Si grave », sans le transmettre ni le citer. Il s'agit d'une tentative de refuser de participer au « cercle vicieux de l'émotivité ». Si nous ne pouvons pas modifier l'architecture sous-jacente de la plateforme, qui repose sur une « croissance par partage réactif », nous pouvons au moins modifier nos propres modèles de partage et de transfert réactifs.
Lien arxiv.org/abs/2508.03385//t.co/XrPXNOUSYr
