Yann LeCun: Por qué dejé Meta a los 65 años para hacer algo que "todos pensaban que estaba mal". La semana pasada, Yann LeCun, uno de los tres gigantes del aprendizaje profundo, se sentó a charlar largamente. Este ganador del premio Turing, que debería haberse retirado y disfrutado de sus 65 años, decidió abandonar Meta, donde había trabajado durante 12 años, y fundó una nueva empresa llamada AMI (Advanced Machine Intelligence) en París. Lo que va a hacer es completamente opuesto a lo que todas las grandes empresas de Silicon Valley están apostando. Mientras OpenAI, Google y Anthropic estaban desarrollando frenéticamente LLM (Large Language Models), Yann dijo: Este camino no funcionará; necesitamos un modelo mundial. Mientras todos hablaban de cuántos años faltaban para alcanzar la inteligencia artificial general, Yann dijo: «Los han engañado a todos. Según el pronóstico más optimista, tardaremos entre 5 y 10 años en alcanzar el nivel de inteligencia de los perros». Cuando los defensores de la IA como teoría del fin del mundo dicen que las máquinas gobernarán a la humanidad, Yann dice: Eso es pura ilusión. ¿Por qué abandonar Meta en este momento? El razonamiento de Yann es sencillo: Meta se está cerrando. El FAIR (Facebook AI Research) que fundó en Meta fue en su día el laboratorio más abierto de la industria, donde toda la investigación se publicaba en artículos y todo el código era de código abierto. PyTorch surgió de ahí. Esta cultura abierta obligó a Google a ser más abierto también. Pero ahora las cosas han cambiado. OpenAI comenzó a desarrollar su tecnología a puerta cerrada hace unos años, y Google siguió su ejemplo. Ahora, incluso Meta avanza en esta dirección. Se le pidió a FAIR que trabajara en proyectos más cortos, publicara menos artículos y cooperara más con el equipo de LLM. "No se puede llamar investigación a algo que no está publicado", dijo Yann, "de lo contrario uno se engaña fácilmente a sí mismo". Ha visto demasiados "proyectos autocomplacientes" dentro de grandes empresas, donde un grupo de personas cierra la puerta y cree haber logrado un avance revolucionario, sin tener ni idea de que otros fuera ya lo han hecho mucho mejor. Más importante aún, si le dices a los científicos: "Vengan a trabajar con nosotros, pero no puedan decir qué están haciendo; tal vez tenga un impacto en el producto en 5 años", nadie estará motivado a hacer un verdadero avance. Entonces decidió salir. Pero ¿por qué es posible iniciar un negocio ahora? Hay un fenómeno muy interesante aquí. Anteriormente, solo las grandes empresas podían realizar investigaciones de IA a largo plazo. Bell Labs dependía del monopolio de telecomunicaciones de AT&T, IBM Research de su monopolio de mainframes y Xerox PARC de su monopolio de fotocopiadoras. Sólo los beneficios excesivos generados por un monopolio pueden sustentar a un equipo de investigación que no considera los rendimientos a corto plazo. Pero ahora las cosas son diferentes. Los inversores tienen expectativas sin precedentes en cuanto a la IA y están dispuestos a realizar grandes inversiones en empresas emergentes, lo que permitirá a los equipos centrarse en la investigación durante los dos primeros años. "Antes esto era imposible", dijo Yann. Por lo tanto, el modelo de AMI es: realizar investigación previa, publicarla toda, pero también desarrollar productos. El producto que quieren fabricar es un sistema inteligente basado en un modelo mundial. ¿Qué es un modelo mundial? ¿Por qué cree Yann que este es el camino correcto? Esta es la parte más crucial de toda la entrevista. La crítica de Yann a LLM es muy directa: no pueden manejar el mundo real. Hizo los cálculos: Entrenar un LLM decente requiere 30 billones de tokens. Cada token ocupa aproximadamente 3 bytes, por lo que se necesitarían 10 elevado a 14 bytes. ¿Qué significa esto? Son todos los datos de texto que se pueden encontrar en internet. ¿Pero qué pasa si pasamos al vídeo? 10 elevado a 14 bytes, a una tasa de compresión de 2 MB por segundo, sólo es suficiente para 15.000 horas de vídeo. ¿Qué son 15.000 horas? Es el tiempo que se sube a YouTube en 30 minutos. Es el tiempo total que un niño de 4 años está despierto (aproximadamente 16.000 horas en 4 años). La misma cantidad de datos contiene mucha más información en un vídeo que en un texto. Además, los vídeos contienen mucha redundancia, y esta redundancia es precisamente la clave del aprendizaje. No se puede aprender nada de cosas completamente aleatorias; lo que se puede aprender siempre tiene patrones y redundancia. Por lo tanto, Yann concluye que nunca podremos entrenar una IA de nivel humano utilizando solo texto. Entonces ¿qué es exactamente el modelo mundial? Mucha gente piensa que los modelos mundiales son "simuladores", como motores de juego, que reproducen cada detalle del mundo. Yann dijo que esta interpretación es completamente errónea. Puso un ejemplo: la dinámica de fluidos computacional (CFD). Para simular el flujo de aire alrededor de un avión, dividirías el espacio en pequeños cuadrados, cada uno conteniendo variables como velocidad, densidad y temperatura, y luego resolverías ecuaciones diferenciales parciales. Esta ya es una representación abstracta. En el mundo real, las moléculas de aire colisionan, pero nadie simula cada una de ellas; los requisitos computacionales serían astronómicos. ¿A un nivel más profundo? Las moléculas están formadas por átomos, los átomos están formados por partículas, y las partículas se describen mediante la teoría cuántica de campos. Si realmente quieres simular nuestra conversación actual desde la perspectiva de la teoría cuántica de campos, necesitarías una computadora cuántica del tamaño de la Tierra, y sólo podría simular unos pocos nanosegundos. ¿Y entonces qué hacemos? Inventamos la abstracción. Partículas, átomos, moléculas, proteínas, células, órganos, organismos, sociedades, ecosistemas: cada capa ignora una gran cantidad de detalles sobre la capa inferior. Todo campo científico, en esencia, implica hacer predicciones en un cierto nivel de abstracción. Los físicos tienen un ejemplo clásico: una caja llena de gas, donde se puede simular el movimiento de cada molécula, pero nadie lo hace. Utilizamos PV=nRT, donde presión × volumen = número de partículas × temperatura. Esta es la idea central del modelo mundial: hacer predicciones en un espacio de representación abstracto y predecir sólo las partes relevantes. Si te preguntara dónde estaría Júpiter dentro de 100 años, de toda la información sobre Júpiter, solo necesitarías seis números: tres coordenadas de posición y tres componentes de velocidad. Nada más importa. ¿Por qué LLM no puede hacer esto? El problema con los LLM es que intentan predecir cada píxel, cada token. Esto es simplemente imposible para datos de alta dimensión, continuos y ruidosos. No se puede predecir el siguiente fotograma de un vídeo a nivel de píxel porque hay demasiados detalles impredecibles. Cómo se desplaza una hoja, cómo se forma una salpicadura de agua: todo esto es aleatorio. LLM trabaja con texto porque el texto en sí es discreto y de dimensiones relativamente bajas. Sin embargo, su desempeño en tareas visuales es deficiente, ya que todas las capacidades visuales se entrenan por separado y no se aprenden mediante el LLM en sí. La solución de Yann es JEPA (Joint Embedding Predictive Architecture). En pocas palabras: 1. Pase tanto la entrada X como la Y a predecir a través de un codificador para obtener una representación abstracta. 2. Realizar predicciones en el espacio de representación abstracta 3. Este espacio de representación ignora automáticamente los detalles impredecibles (incluido el ruido). Había estado pensando en esta idea durante mucho tiempo. Un viaje de reflexión de 20 años Yann comenzó a investigar el aprendizaje no supervisado a principios de la década de 2000, con la idea de utilizar un autocodificador: la entrada está representada por un codificador y luego la entrada es reconstruida por un decodificador. Pero esta línea de pensamiento es errónea. Forzar la representación para que incluya toda la información de entrada es una mala idea. Más tarde, probaron varios métodos de regularización: autocodificadores dispersos, autocodificadores con eliminación de ruido y máquinas de Boltzmann restringidas. Todas estas medidas eran muy populares en aquella época, pero ninguna resolvió realmente el problema. En 2015, Yann dio un discurso de apertura en NIPS (ahora NeurIPS), que se centró en los modelos mundiales. Sus estudiantes comenzaron a hacer predicciones en vídeo. Pero luego se cometió el mismo error: predecir a nivel de píxel. Es sencillamente imposible hacerlo bien. La predicción no es determinista: necesitas variables latentes para representar todo lo que no sabes. Lo intentaron durante muchos años, pero los resultados no fueron los ideales. El punto de inflexión se produjo hace cinco años. El investigador postdoctoral de Yann, Stéphane Deny, probó una idea: En lugar del aprendizaje contrastivo, maximiza directamente la cantidad de información en la salida del codificador. Al principio, Yann pensó que esto no funcionaría porque había visto a Geoffrey Hinton hacer intentos similares en los años 1980, todos los cuales fracasaron. No se puede maximizar directamente la información porque solo se puede calcular el límite superior de la información, no el límite inferior. Pero realmente lo logró. Este método se llama Barlow Twins. Más tarde lo mejoraron aún más con VICReg (Variance-Invariance-Covariance Regularization), que fue aún más efectivo. Recientemente, Randall Balestriero (quien también apareció en este podcast) y Yann lanzaron I-JEPA, que utiliza SigReg para garantizar que la salida del codificador sea una distribución gaussiana isótropa. Este método ya está bastante maduro. ¿Por qué se dice que LLM nunca alcanzará AGI? Yann es muy crítico con el actual "culto LLM" en Silicon Valley. “Todos hacen lo mismo porque la competencia es tan feroz que nadie se atreve a desviarse”. OpenAI, Meta, Google, Anthropic: todos están involucrados: • Ampliar el tamaño del modelo • Entrenar con más datos sintéticos • Comprar datos con licencia • Contratar a miles de personas para realizar RLHF • Inventar nuevas técnicas de aprendizaje de refuerzo Creen que este camino conduce a la superinteligencia. Yann dijo: Esto es una ilusión, nunca tendrá éxito. Luego agregaron algunas técnicas de "razonamiento", que esencialmente implican hacer que el modelo genere cadenas de pensamiento extremadamente largas, generar una gran cantidad de salidas candidatas y luego usar una función de evaluación para seleccionar la mejor. "Esto no nos llevará a ninguna parte." Dijo que ahora hay una especie de "complejo de superioridad" en Silicon Valley. DeepSeek salió hace un tiempo y logró buenos resultados utilizando diferentes métodos, lo que sorprendió a la gente de Silicon Valley. ¿Crees que eres el único inteligente? ¿Cuánto tiempo tardará en desarrollarse la verdadera IAG? Yann comenzó diciendo que el concepto de "inteligencia general" es una tontería. Los humanos creemos ser “universales”, pero en realidad somos extremadamente especializados. Somos muy buenos en el mundo real, muy buenos socializando, pero somos pésimos en ajedrez. Las máquinas nos superan desde hace siglos. Creemos que somos versátiles simplemente porque los problemas que podemos imaginar son problemas que podemos manejar. Pero hay muchos problemas que ni siquiera imaginamos. Por lo tanto, en lugar de decir "inteligencia general", diga "inteligencia a nivel humano". En el escenario más optimista, los perros alcanzarán su nivel de inteligencia dentro de 5 a 10 años. ¿Por qué un perro? La principal diferencia entre los perros y los humanos es el tamaño del cerebro y el lenguaje. El lenguaje es, en realidad, una parte muy pequeña: solo el área de Broca y el área de Wernicke, dos pequeñas áreas de la corteza cerebral que evolucionaron en menos de un millón de años. Ya contamos con LLM para el procesamiento del lenguaje, que pueden considerarse como las áreas del lenguaje del cerebro. Lo que nos falta ahora es la corteza prefrontal, donde reside el modelo del mundo. Pero Yann también dijo que podríamos encontrarnos con obstáculos que no podemos ver ahora y que podrían tardar 20 años o incluso más. "Esto ha sucedido muchas veces en la historia de la IA". La paradoja de Moravec todavía sigue vigente. Moravec dijo en 1988: "Las tareas intelectuales que nos resultan difíciles (jugar ajedrez, calcular puntuaciones) pueden ser realizadas fácilmente por computadoras". Pero hay cosas que damos por sentado (cosas que los gatos pueden hacer) que las computadoras no pueden. Han pasado cuarenta y siete años y esta paradoja todavía existe. Ahora podemos entrenar a los robots para que caminen y eviten obstáculos, pero son mucho menos ágiles y creativos que un gato. "Así que quienes dicen que tendremos IAG dentro de un año o dos están completamente delirantes. El mundo real es mucho más complejo de lo que imaginan." No se puede entender el mundo real tokenizándolo y luego utilizando LLM. ¿La IA eliminará todos los empleos? Yann dijo: No escuches a los científicos de IA hablar de economía. Pregúntele a cualquier economista y ninguno de ellos predecirá un desempleo masivo. Puso un ejemplo: el trabajo más solicitado en la década de 1980 era el de "ingeniero de conocimiento". En ese momento, había una tendencia importante llamada sistemas expertos, y Japón lanzó el proyecto "Computadora de Quinta Generación" para fabricar una CPU que pudiera ejecutar Lisp y motores de inferencia. El trabajo de un ingeniero de conocimiento es sentarse junto a un experto, convertir el conocimiento del experto en reglas y hechos, y luego la computadora puede hacer lo que hizo el experto. Esta es una versión manual de clonación de comportamiento. ¿El resultado? Solo funciona en muy pocas áreas, y hay muy pocas aplicaciones que sean económicamente viables y altamente confiables. Éste no es el camino hacia la inteligencia humana. Pero la gente de aquella época también sentía que éste era el futuro, tal como la gente hoy siente que el LLM es el futuro. "En mi carrera, esta ilusión de que 'la última tecnología está a punto de traer consigo la IAG' se ha producido tres veces, y probablemente cinco o seis veces antes que yo". En 1956, Newell y Simon crearon el "General Problem Solver" (un nombre muy modesto, ¿verdad?). Creen que todos los problemas pueden representarse como una búsqueda: hay una función objetivo, un espacio de soluciones y la búsqueda es simplemente encontrar la solución óptima. Lo que no saben es que todos los problemas interesantes tienen una complejidad exponencial. Por lo tanto, el solucionador de problemas generales no es general en absoluto. Seguridad de la IA: ¿Por qué Yann no está preocupado? Mucha gente le pregunta qué hacer cuando sus opiniones difieren de las de Hinton y Bengio. La respuesta de Yann fue práctica: “Por supuesto que la seguridad es importante, pero es una cuestión de ingeniería, no una cuestión de principios”. Citó el ejemplo de los motores a reacción. Puedes dar la vuelta al mundo en un bimotor durante 17 horas, con total seguridad. ¡Es increíble! Las temperaturas dentro de un motor de turbofán son insoportables para cualquier metal. La fuerza centrífuga generada por su rotación es de cientos de toneladas. Lógicamente, este aparato ni siquiera debería funcionar. Pero funciona porque la ingeniería es buena. La primera vez que construyamos un motor a reacción, sin duda explotará tras 10 minutos de funcionamiento. No consumirá combustible ni será fiable. Pero los factores económicos fueron tan fuertes que finalmente lograron el nivel de confiabilidad que vemos hoy. Lo mismo se aplica a la IA. Primero crearemos una IA parecida a un gato y luego le agregaremos barandillas para evitar que haga cosas peligrosas. Stuart Russell dio un ejemplo: si le pides a un robot doméstico que te traiga café y alguien bloquea la máquina de café, ¿el robot empujará a la persona o incluso la lastimará para completar la tarea? Yann dijo que este ejemplo era estúpido porque era demasiado fácil de arreglar. Solo hay que añadir una restricción de bajo nivel: el robot doméstico debe mantenerse alejado de las personas, y si alguien bloquea su camino, debe pedirle que se haga a un lado, pero nunca debe dañar a las personas. Si un robot sostiene un cuchillo y corta un pepino, entonces agregue una restricción: cuando tenga un cuchillo en su mano, no debe mover el brazo si hay gente alrededor. Se trata de restricciones estrictas, no de ajustes. El problema con LLM es que solo se puede ajustar, y siempre se puede hacer jailbreak. Sin embargo, si se utiliza una arquitectura orientada a objetivos, se tiene un modelo mundial, se pueden predecir las consecuencias de las acciones y luego se seleccionan secuencias de acciones a través de la optimización mientras se satisface un conjunto de restricciones, entonces es estructuralmente seguro. No puede escapar de estas restricciones porque no son preferencias entrenadas, sino parte de la arquitectura del sistema. La inteligencia no es sinónimo del deseo de dominar. Este es un punto que Yann enfatiza repetidamente. "No es que algo quiera gobernar a otros solo porque es inteligente. Son dos cosas diferentes." Los humanos queremos influir en los demás, a veces a través de la dominación, a veces a través del prestigio; esto es algo que la evolución ha escrito en nuestros genes, porque somos una especie social. No hay razón para que escribamos esta fuerza impulsora en los sistemas de IA, y ellos no la desarrollarán por sí solos. Además, "las personas más inteligentes a menudo no son las que quieren ser jefes". Dijo: "Miren el escenario político internacional; aquellos que quieren ser líderes no son las personas más inteligentes". Muchas de las personas más inteligentes sólo quieren estudiar sus propios problemas y no tienen ningún interés en los de los demás. ¿Por qué debemos permanecer abiertos? AMI publicará todas las investigaciones previas. Yann dijo que no se trata de sentimentalismo, se trata de necesidad. "Si no publicas, puedes engañarte fácilmente a ti mismo." Lo había visto demasiadas veces: la gente dentro de la empresa estaba extremadamente entusiasmada con un proyecto, pensando que era un avance revolucionario, pero no tenían idea de que la gente de afuera ya había hecho un trabajo mucho mejor. Además, si les dices a los científicos: "Vengan a trabajar, pero no digan qué están haciendo; tal vez habrá un producto en 5 años", no estarán motivados. Necesitan retroalimentación y reconocimiento a corto plazo de sus pares. Si quieres un verdadero avance, tienes que conseguir que la gente lo publique. No hay otra manera. "Esto es algo que muchas empresas están olvidando ahora". Un fenómeno interesante: China se está volviendo más abierta. Yann señala un fenómeno irónico. El mejor modelo de código abierto en estos momentos proviene de China. Las empresas estadounidenses (a excepción de Meta) se están cerrando al exterior en un esfuerzo por proteger su "ventaja competitiva". Pero las empresas y las instituciones de investigación chinas están completamente abiertas. Por lo tanto, muchas personas en la industria y el mundo académico ahora utilizan modelos chinos porque necesitan modelos de código abierto. Mucha gente en la industria estadounidense está muy insatisfecha con esto. Quieren un buen modelo de código abierto que no sea chino. Llama 4 podría haber sido una buena opción, pero es decepcionante. Quizás Meta se arregle o quizás Meta se cierre; no está claro. Mistral acaba de lanzar un excelente modelo de generación de código y lo mantienen abierto, lo cual es genial. ¿Por qué no se ha jubilado todavía? Yann tiene 65 años, ganó el Premio Turing y acaba de recibir el Premio Reina Isabel. Podría retirarse fácilmente. Su esposa también quiere que se jubile. "Pero tengo una misión." Siempre ha creído que hacer a la gente más inteligente, o utilizar máquinas para ayudar a la gente a ser más inteligente, es esencialmente algo bueno. La inteligencia es el bien más escaso del mundo, especialmente en el gobierno (dijo riendo). Estamos limitados por un suministro finito de inteligencia, como especie y como planeta. Por eso invertimos enormes recursos en educar a la gente. Aumentar la cantidad total de inteligencia al servicio de la humanidad es esencialmente algo bueno. Claro que existen peligros, y claro que hay que tomar precauciones. Al igual que hay que asegurarse de que un motor a reacción sea seguro y fiable, un coche no te matará en una colisión leve. Pero este es un problema de ingeniería, no insalvable. También es un problema político, pero no insalvable. Todos los proyectos de su carrera giraron en torno a este objetivo: hacer que la gente sea más inteligente. Por eso se convirtió en profesor, por eso divulga ampliamente la ciencia en las redes sociales y por eso realiza investigaciones sobre la inteligencia de las máquinas. La gente piensa que crear máquinas inteligentes autónomas y crear máquinas que asistan a los humanos son dos tecnologías diferentes. No, son exactamente la misma tecnología. Yann hace más que simplemente investigar IA. Le apasiona la navegación, especialmente los multicascos (trimaranes y catamaranes). Es propietario de varios barcos. Le gusta construir máquinas voladoras. «No las llamo aviones, porque muchas no se parecen en nada a ellos, pero sí que pueden volar». Su padre era ingeniero aeronáutico y construía aviones en su tiempo libre, además de fabricar sus propios sistemas de radiocontrol remoto. Esto se convirtió en una actividad familiar. Su hermano también lo hacía; trabajaba en Google Research en París. Durante la pandemia, comenzó a practicar astrofotografía y compró un montón de telescopios para fotografiar el cielo nocturno. Fabrica instrumentos musicales electrónicos. Le interesa la música y la electrónica desde la adolescencia, y ahora tiene un montón de sintetizadores en casa. Fabrica sus propios instrumentos electrónicos, de esos que se tocan soplando, con los dedos, pero que producen señales de control. Dijo que la navegación y el modelo mundial son muy similares. Para navegar bien y rápido en un velero hay que prever muchas cosas: cómo afectarán las olas al barco, cuándo vendrán las ráfagas de viento y si el barco se inclinará. Básicamente, tienes que ejecutar cálculos de dinámica de fluidos en tu cabeza. Es necesario saber cómo se mueve el flujo de aire alrededor de la vela. Si el ángulo de ataque es demasiado grande, se generará turbulencia y la sustentación disminuirá significativamente. "Para ajustar las velas es necesario ejecutar CFD mentalmente, pero a un nivel abstracto no se están resolviendo ecuaciones de Stokes". Por eso le encanta navegar: hay que construir un modelo mental predictivo para hacerlo bien. Consejo final Alguien preguntó: Si hoy comenzara una carrera en IA, ¿qué debería aprender? La respuesta de Yann podría sorprenderte. Aprende cosas que tengan una larga vida útil, aprende cosas que te ayuden a aprender a aprender. La tecnología cambia tan rápido que necesitas la capacidad de aprender rápidamente. ¿Cómo lo haces? Aprendiendo lo básico. Además, a menudo estas cosas no son informáticas. Soy profesor de informática, pero te aconsejo que no estudies demasiado. Y para ser sincero: me especialicé en ingeniería eléctrica en la licenciatura; no soy un verdadero informático. Deberías aprender: • Matemáticas, especialmente matemáticas que se conectan con la realidad • Modelado • Cosas aprendidas en disciplinas de ingeniería En EE. UU., Cálculo I, II y III proporcionan una base sólida. Sin embargo, los departamentos de informática solo exigen Cálculo I, lo cual es insuficiente. La teoría de la probabilidad, el álgebra, la cibernética, el procesamiento de señales y la optimización son extremadamente útiles para la IA. La física también es buena porque trata sobre "qué debo representar en la realidad para poder hacer predicciones". Ésta es la esencia de la inteligencia. Por supuesto, también es necesario aprender suficiente informática, saber programar y saber utilizar una computadora. Incluso si la IA te ayuda con la programación, aún necesitas comprender estas cosas. Alguien preguntó: ¿Qué pasará si la IA ayuda en la programación? Yann dijo: Ocurrirá un fenómeno interesante: mucho código sólo se utilizará una vez. Porque escribir código se ha vuelto tan barato. Le pides a un asistente de IA que "dibuje un diagrama" o "cree un pequeño simulador", escribe código, lo usas una vez y luego lo descartas. Así que es un error decir que ya no necesitamos programadores. Los costes del software han ido disminuyendo; este es solo el siguiente paso. Pero esto no significa que las computadoras se volverán menos importantes; al contrario, se volverán aún más importantes. A lo largo de la entrevista, Yann demostró una cualidad muy poco común. Critica la tendencia dominante actual, pero no por el mero hecho de criticar. Tiene alternativas claras, décadas de pensamiento acumulado, lecciones aprendidas de los fracasos y avances recientes. Tenía 65 años y podría haberse dormido en los laureles, pero eligió hacer algo que "todos pensaron que estaba mal". Quizás tenga razón. Tal vez en cinco años descubramos que, mientras todos están desarrollando títulos de maestría en derecho, el verdadero avance surge de los modelos mundiales. Tal vez dentro de veinte años nos daremos cuenta de que nos hemos topado una vez más con un obstáculo invisible. Pero al menos algunas personas están tomando un camino diferente. Y resulta que esta persona es la que inventó las redes neuronales convolucionales, persistió durante décadas durante el invierno de la IA y fue testigo de tres burbujas de "esta vez definitivamente podemos lograr la IAG". Vale la pena escuchar sus palabras, incluso si son desagradables de oír.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.