Você tem visto "Guia XX" com muita frequência ultimamente? Até Ma Dong-seok não conseguiu evitar reclamar. Eu me sinto da mesma forma. Quando vejo um monte de tweets sobre os "Guias XX", minha primeira reação é criticar Musk por mudar o algoritmo novamente. É como quando Lai Zong mudou a linha do tempo do Weibo de "classificada pelo horário das pessoas que seguem" para recomendações algorítmicas, e recebeu muitas críticas. Parece que tudo é culpa do algoritmo: ele manipula preferências e cria conflitos às escondidas, nos aprisionando em casulos de informação. Mas e se tudo isso for apenas uma ilusão? E se o mundo ainda estiver fragmentado e repleto de casulos mesmo sem algoritmos? A plataforma social mais "pura" poderia "automaticamente" evoluir tudo o que detestamos hoje! Antes de se apressar em refutar, vamos analisar um experimento muito interessante que acaba de ser divulgado. Um artigo da Universidade de Amsterdã, na Holanda, intitulado "Podemos consertar as mídias sociais? Testando várias intervenções 'persuasivas' com simulações sociais generativas", utilizou IA para conduzir um experimento de simulação. Os pesquisadores criaram uma versão minimalista de uma plataforma social sem recomendações algorítmicas, semelhante ao Twitter e ao Weibo em seus primórdios, com apenas funções de publicação, republicação e seguir. No entanto, em vez de usar pessoas reais, eles usaram o LLM (Large Language Model) para simular 500 usuários virtuais com personalidades diferentes. Esses usuários virtuais de IA tinham diferentes posicionamentos políticos, interesses e históricos. (Aliás, parece que a inspiração veio de uma cidade virtual chamada Smallville, construída por Stanford usando o GPT-4. Vinte e cinco humanos virtuais criados por inteligência artificial viviam na cidade. Eles tinham empregos, fofocavam, organizavam eventos sociais, faziam novos amigos e até davam festas de Dia dos Namorados. Cada morador da cidade tinha uma personalidade e uma história de vida únicas.) Adivinhe qual será o resultado? Aproximadamente 50.000 interações revelaram rapidamente três problemas típicos das redes sociais: 1. A formação de "câmaras de eco": Humanos virtuais de IA rapidamente "tomam partido" sem precisar de qualquer "alimentação" algorítmica. Aqueles com posições semelhantes seguem uns aos outros e logo formam vários pequenos círculos, com quase nenhuma interação entre eles. 2. Os influenciadores monopolizam o tráfego: 10% dos usuários mais populares detêm 75 a 80% dos seguidores. 3. Vozes extremistas são amplificadas: Opiniões com posicionamentos mais claros e extremos recebem mais compartilhamentos e atenção. Em seguida, testaram seis intervenções ao nível da plataforma, selecionadas na literatura, e descobriram que as melhorias foram extremamente limitadas. Nenhuma das intervenções interrompeu completamente os mecanismos subjacentes que causam esses sintomas, e algumas até agravaram os problemas. Avaliamos seis intervenções. Embora várias tenham apresentado efeitos positivos modestos, nenhuma resolveu completamente os problemas centrais. Além disso, melhorias em uma dimensão frequentemente ocorriam à custa do agravamento de outra. (Por exemplo, a "classificação por tempo" reduziu a desigualdade, mas exacerbou o "efeito Prisma"; o "algoritmo de ponte" mitigou o "efeito Prisma", mas exacerbou a desigualdade.) Os três principais problemas que assolam as redes sociais — bolhas de informação, influência concentrada e amplificação de vozes extremistas — provavelmente têm origem no próprio comportamento social online dos seres humanos e podem não estar tão relacionados a recomendações algorítmicas quanto imaginamos. Somos nós mesmos que buscamos ativamente "câmaras de eco" e somos nós mesmos que elevamos aqueles com visões extremistas ao status de "influenciadores". Isso também explica a existência da "lei da lista de vigilância": @HeSenbao: Há alguns anos, um ditado se popularizou no Weibo chamado "lei da lista de seguidores", que basicamente significa que se alguém disser coisas estúpidas sem pudor, você certamente encontrará algumas contas dessa pessoa na lista de seguidores. @FantasyManLiu: Sociólogos já estão pesquisando isso. Na era pré-informação, os indivíduos recebiam informações passivamente, e a disseminação de informações era principalmente unidirecional. Na era bidirecional, as fontes de informação filtram o público, e o público filtra ativamente as fontes de informação. Portanto, a preferência do público na escolha das fontes de informação pode refletir seu nível cognitivo, nível de compreensão e posicionamento em relação ao assunto. Não são os algoritmos que estão destruindo as redes sociais; é simplesmente assim que o mundo é. A razão pela qual nos sentimos despedaçados pode ser simplesmente porque os algoritmos nos forçam a ver um mundo que normalmente não veríamos. Na era anterior às redes sociais, estávamos rodeados de pessoas muito parecidas conosco, e os jornais e a televisão que assistíamos apresentavam uma realidade harmoniosa filtrada pelos editores. Agora, os algoritmos revelaram todas aquelas vozes que existiam, mas que antes eram silenciadas. Tombkeeper apresenta uma teoria clássica de "aumentar as tarifas e reduzir a velocidade", que é um ponto de vista semelhante. A essência é que, desde 2017, a política de "aumento de velocidade e redução de tarifas" levou a um aumento no número de usuários da internet, atraindo todos os tipos de pessoas e resultando em um aumento de opiniões extremistas. A sensação de divisão que você experimenta não ocorre porque o algoritmo cria conflitos, mas sim porque ele permite que você veja um mundo real, diverso e, às vezes, até mesmo surpreendentemente complexo. Acredito que as plataformas de mídia social têm, na verdade, um incentivo para romper com os nossos padrões de informação. O motivo é simples: se os algoritmos só mostrarem coisas que você gosta, você se cansará rapidamente. Para manter você engajado e na plataforma por mais tempo, os algoritmos precisam surpreendê-lo constantemente, recomendando conteúdo novo que possa lhe interessar, mas que você ainda não tenha visto. Portanto, acredito que Lao Ma e Lai Zong otimizarão o algoritmo. Embora ainda existam vários problemas, ele acabará por evoluir numa direção positiva. Por isso, embora eu critique frequentemente os algoritmos de Jack Ma e Lai, também dependo bastante das notificações push das plataformas. Muitas vezes, internautas me perguntam de onde obtenho minhas informações, e já respondi mais de uma vez: minhas principais fontes são as notificações push do X e o Hacker News. Uso quase que exclusivamente o recurso "Para você" do X, em vez do recurso "Seguindo", ordenado por tempo e seguidores, porque o algoritmo frequentemente me ajuda a descobrir conteúdo valioso que eu não acompanhava antes. O artigo, intitulado "Podemos consertar as redes sociais?", conclui com uma afirmação muito perspicaz: O fato de esses problemas poderem "emergir" de uma plataforma tão simples sugere que as questões podem não estar nos detalhes de implementação do algoritmo, mas em mecanismos estruturais mais profundos: elas decorrem da dinâmica complexa entre "interação de conteúdo" e "formação de rede". > "Retuitar" não se trata apenas de amplificar conteúdo; trata-se de "construir" a rede social. Os usuários são expostos a outros por meio de retuítes de contas que já seguem. > Isso implica um mecanismo central: a natureza "emocional, reativa e partidária" de nossas republicações determina diretamente quem é visto e quem ganha seguidores. > Isso cria um ciclo vicioso que se reforça: as interações emocionais impulsionam o crescimento das redes sociais, e as redes em crescimento, por sua vez, moldam sua exposição futura à informação. Esse ciclo reforça constantemente a homogeneidade ideológica, a desigualdade de atenção e a sobrerrepresentação de vozes extremistas. > Nossas descobertas desafiam a visão comum de que "a disfunção das mídias sociais é causada principalmente pela curadoria algorítmica". Em vez disso, esses problemas podem estar enraizados na arquitetura subjacente das mídias sociais: uma rede social que cresce por meio do "compartilhamento emocional e reativo". > Se for esse o caso, então a melhoria do ambiente de discurso online não pode ser alcançada simplesmente com "reparos e correções" técnicas — exige que repensemos as dinâmicas mais fundamentais de interação e visibilidade que definem esses ambientes. Assim, o problema se completa. Já que a raiz do problema não está no algoritmo, mas sim no "compartilhamento emocional e reativo", então simplesmente corrigir a tecnologia da plataforma não é suficiente. Embora este artigo não tenha apresentado uma solução, pelo menos nos lembrou que, como usuários, podemos fazer mudanças por conta própria. Assim como o "Guia XX" mencionado no início, por que continuo vendo isso? Na verdade, se você pensar bem, não é que esteja em todo lugar na minha tela. É que eu esqueço de outros tweets depois de lê-los, mas esse tipo de conteúdo é o que mais facilmente evoca emoções, compartilhamentos e comentários, fazendo com que ele se reforce repetidamente. Nesse ponto, a abordagem de Ma Dong-seok foi muito inteligente: ele mencionou brevemente o assunto, mas se referiu a ele como "Guia Low B" e não o encaminhou nem o citou. Trata-se de um esforço para recusar participar do "ciclo vicioso do emocionalismo". Se não podemos mudar a arquitetura subjacente da plataforma, que se baseia em "crescimento por meio do compartilhamento reativo", pelo menos podemos mudar nossos próprios padrões de compartilhamento e encaminhamento reativos.
Link arxiv.org/abs/2508.03385t.co/XrPXNOUSYr
