¿Has estado viendo "Guía XX" todo el tiempo últimamente? Incluso Ma Dong-seok no pudo evitar quejarse. Yo siento lo mismo. Cuando veo un montón de tuits sobre "XX Guides", mi primera reacción es criticar a Musk por volver a cambiar el algoritmo. Es como cuando Lai Zong cambió la cronología de Weibo, que antes se ordenaba por tiempo de los seguidores, a recomendaciones algorítmicas, y recibió muchas críticas. Parece que todo es culpa del algoritmo: el algoritmo manipula las preferencias y crea conflictos en la oscuridad, encerrándonos en burbujas informativas. ¿Pero qué pasaría si todo esto fuera solo una ilusión? ¿Y si el mundo siguiera dividido y lleno de aislamiento incluso sin algoritmos? ¡La plataforma social más "pura" podría evolucionar "automáticamente" todo aquello que odiamos hoy! Antes de que te apresures a refutar, veamos un experimento muy interesante que acaba de publicarse. Un estudio de la Universidad de Ámsterdam, en los Países Bajos, titulado "¿Podemos mejorar las redes sociales? Probando diversas intervenciones 'persuasivas' con simulaciones sociales generativas", utilizó inteligencia artificial para llevar a cabo un experimento de simulación. Crearon una versión minimalista de una plataforma social sin recomendaciones algorítmicas, similar a los primeros Twitter y Weibo, con funciones únicamente de publicar, republicar y seguir. Sin embargo, en lugar de usar personas reales, utilizaron un modelo de lenguaje a gran escala (LLM, por sus siglas en inglés) para simular 500 usuarios virtuales con diferentes personalidades. Estos usuarios virtuales de IA tenían diferentes posturas políticas, intereses y antecedentes. (Por cierto, parece que se inspiraron en una ciudad virtual llamada Smallville que Stanford construyó usando GPT-4. En la ciudad vivían 25 humanos virtuales con IA. Tenían trabajos, cotilleaban, organizaban eventos sociales, hacían nuevos amigos e incluso celebraban fiestas de San Valentín. Cada residente de la ciudad tenía una personalidad y una historia únicas). ¿Adivina cuál será el resultado? Aproximadamente 50.000 interacciones revelaron rápidamente tres problemas típicos de las redes sociales: 1. La formación de "cámaras de eco": Los humanos virtuales de IA rápidamente "toman partido" sin necesidad de "alimentación" algorítmica. Aquellos con posturas similares se siguen unos a otros y pronto forman varios círculos pequeños, con casi ninguna interacción entre los círculos. 2. Los influencers monopolizan el tráfico: el 10% de los usuarios principales tienen entre el 75% y el 80% de los seguidores. 3. Las voces extremas se amplifican: Los puntos de vista con posturas más claras y extremas reciben más publicaciones compartidas y atención. Posteriormente, probaron seis intervenciones a nivel de plataforma, seleccionadas de la bibliografía, y descubrieron que las mejoras eran extremadamente limitadas. Ninguna de las intervenciones logró alterar por completo los mecanismos subyacentes que causan estos síntomas, y algunas incluso empeoraron los problemas. Evaluamos seis intervenciones. Si bien varias mostraron efectos positivos moderados, ninguna resolvió por completo los problemas fundamentales. Además, las mejoras en una dimensión a menudo se produjeron a expensas del empeoramiento de otra. (Por ejemplo, la "clasificación por tiempo" redujo la desigualdad, pero exacerbó el "efecto prisma"; el "algoritmo puente" mitigó el "efecto prisma", pero exacerbó la desigualdad). Los tres principales problemas que aquejan a las redes sociales —la creación de burbujas informativas, la influencia concentrada y la amplificación de voces extremistas— probablemente tengan su origen en el propio comportamiento social humano en línea, y puede que no estén tan relacionados con las recomendaciones algorítmicas como creemos. Somos nosotros mismos quienes buscamos activamente las «cámaras de eco» y quienes elevamos a la categoría de «influencers» a quienes tienen opiniones extremistas. Esto también explica la existencia de la "ley de listas de vigilancia": @HeSenbao: Hace unos años, se popularizó en Weibo un dicho llamado la "ley de la lista de seguidos", que básicamente significa que si alguien dice cosas estúpidas descaradamente, definitivamente encontrarás algunas cuentas en su lista de seguidos. @FantasyManLiu: Los sociólogos ya están investigando esto. En la era preinformacional, los individuos recibían información de forma pasiva, y su difusión era principalmente unidireccional. En la era bidireccional, las fuentes de información filtran a las audiencias, y estas, a su vez, filtran activamente las fuentes de información. Por lo tanto, la preferencia de la audiencia al elegir fuentes de información puede reflejar su nivel cognitivo, su nivel de comprensión y su postura al respecto. No son los algoritmos los que están destrozando las redes sociales; es simplemente la realidad del mundo. La razón por la que nos sentimos divididos podría deberse simplemente a que los algoritmos nos obligan a ver un mundo que normalmente no veríamos. En la era anterior a las redes sociales, estábamos rodeados de personas muy parecidas a nosotros, y los periódicos y la televisión que veíamos presentaban una realidad armoniosa filtrada por los editores. Ahora, los algoritmos han desenterrado todas esas voces que existían pero que antes estaban silenciadas. Tombkeeper defiende la clásica teoría de "aumentar las tarifas y reducir la velocidad", que plantea una postura similar. En esencia, sostiene que desde 2017, la política de "aumentar la velocidad y reducir las tarifas" ha provocado un incremento en el número de usuarios de internet, atrayendo a todo tipo de personas y generando un aumento de opiniones extremistas. La sensación de división que experimentas no se debe a que el algoritmo cree conflictos, sino a que te permite ver un mundo real, diverso y, a veces, incluso desconcertantemente complejo. Creo que las plataformas de redes sociales tienen un incentivo para romper con la monotonía informativa. La razón es simple: si los algoritmos solo te muestran cosas que te gustan, te aburrirás rápidamente. Para mantenerte enganchado y permanecer más tiempo en la plataforma, los algoritmos deben sorprenderte constantemente, recomendándote contenido nuevo que podría interesarte pero que no has visto antes. Por lo tanto, creo que Lao Ma y Lai Zong optimizarán el algoritmo. Si bien aún existen diversos problemas, con el tiempo evolucionará positivamente. Por eso, aunque suelo criticar los algoritmos de Jack Ma y Lai, también dependo mucho de las notificaciones push de las plataformas. Con frecuencia me preguntan de dónde saco mi información, y lo he dicho varias veces: mis principales fuentes son las notificaciones push de X y Hacker News. Uso casi exclusivamente la sección «Para ti» de X, en lugar de la sección «Siguiendo» ordenada por fecha y número de seguidores, porque el algoritmo suele ayudarme a descubrir contenido valioso que antes no seguía. El artículo, "¿Podemos arreglar las redes sociales?", concluye con una afirmación muy perspicaz: El hecho de que estos problemas puedan "surgir" de una plataforma tan simple sugiere que las dificultades podrían no radicar en los detalles de implementación del algoritmo, sino en mecanismos estructurales más profundos: provienen de la compleja dinámica entre la "interacción de contenido" y la "formación de redes". > «Retuitear» no se trata solo de amplificar el contenido; se trata de «construir» la red social. Los usuarios se exponen a otros a través de los retuits de cuentas que ya siguen. > Esto implica un mecanismo fundamental: la naturaleza "emocional, reactiva y partidista" de nuestras publicaciones determina directamente quién es visto y quién gana seguidores. > Esto crea un círculo vicioso que se retroalimenta: las interacciones emocionales impulsan el crecimiento de las redes sociales, y estas, a su vez, condicionan la exposición futura a la información. Este ciclo perpetúa constantemente la homogeneidad ideológica, la desigualdad en la atención y la sobrerrepresentación de voces extremistas. > Nuestros hallazgos cuestionan la opinión generalizada de que "la disfunción de las redes sociales se debe principalmente a la selección algorítmica". En cambio, estos problemas podrían tener su origen en la arquitectura subyacente de las redes sociales: una red social que crece a través del "compartir emocional y reactivo". > Si esto es así, entonces mejorar el entorno del discurso en línea no se puede lograr simplemente haciendo "parches y arreglos" técnicos; requiere que repensemos la dinámica más fundamental de interacción y visibilidad que define estos entornos. Así pues, el problema vuelve a su origen. Dado que la raíz del problema no reside en el algoritmo, sino en el "compartir emocional y reactivo", entonces simplemente parchear la tecnología de la plataforma no es suficiente. Si bien este documento no proporcionó una solución, al menos nos recordó que, como usuarios, podemos realizar cambios nosotros mismos. Al igual que la "Guía XX" mencionada al principio, ¿por qué la veo constantemente? En realidad, si lo piensas bien, no es que esté por todas partes en mi pantalla. Simplemente me olvido de otros tuits después de leerlos, pero este tipo de contenido es el que más fácilmente genera emociones, reenvíos y comentarios, lo que provoca que se refuerce una y otra vez. En este punto, la estrategia de Ma Dong-seok fue muy inteligente: lo mencionó brevemente, pero se refirió a él como "Guía B baja" y no lo reenvió ni lo citó. Se trata de un esfuerzo por negarse a participar en el "círculo vicioso del emocionalismo". Si no podemos cambiar la arquitectura subyacente de la plataforma de "crecer a través del intercambio reactivo", al menos podemos cambiar nuestros propios patrones de intercambio reactivo y reenvío.
Enlacarxiv.org/abs/2508.03385t.co/XrPXNOUSYr
