Este artículo está muy bien escrito. Usemos la IA para interpretarlo (la interpretación es excelente y más fácil de entender que una traducción directa). Hola a todos. ¿Sueles ver discusiones en línea donde una parte habla con elocuencia y cita una amplia gama de fuentes, sonando "muy inteligente", pero siempre te sientes incómodo, como si "algo no estuviera bien"? Tienes razón. A veces, cuanto más complejo es un argumento, cuanto más "explica todo", más sospechoso se vuelve. El fundador de Ethereum, Vitalik Buterin, escribió recientemente un extenso artículo en el que analiza específicamente este fenómeno. Acuñó un término genial: "Resistencia del Cerebro Galáctico". El meme «Cerebro Galáctico» representa un cerebro normal que evoluciona gradualmente hasta convertirse en un cerebro luminoso que ilumina el universo entero. Se usa a menudo para satirizar a las personas inteligentes que le dan demasiadas vueltas a las cosas, complican problemas sencillos y, en definitiva, llegan a conclusiones absurdas. Por lo tanto, el índice de "Resistencia del Cerebro Galáctico" mencionado por Vitalik Buterin mide cuán difícil es que una forma de pensar o un argumento se utilice indebidamente para justificar "cualquier cosa que uno quiera hacer". Este artículo es muy importante porque expone uno de los mayores mitos de nuestro tiempo: siempre pensamos que el debate consiste en encontrar la verdad, pero Vitalik Buterin señala incisivamente que, en el mundo real, la mayoría de los argumentos sofisticados no tratan de "razonamiento" sino de "racionalización". ¿Qué significa? Esto significa que muchas personas primero llegan a una conclusión basándose en las emociones, la intuición o el interés propio (como tener una determinada moneda o sentir aversión por cierto grupo), y luego, a su vez, movilizan toda su inteligencia para encontrar razones aparentemente sofisticadas que respalden esa conclusión. Este enfoque de "disparar primero y luego apuntar" es totalmente fanático. Y esos argumentos sobre el "bajo índice de defensa" son sus armas favoritas, porque son de uso general y pueden emplearse para defender casi cualquier cosa. En su artículo, Vitalik Buterin menciona algunas de las trampas mentales más populares y peligrosas relacionadas con el "índice de defensa bajo". Veamos cómo se las "engaña". Trampa 1: La trampa de la "inevitabilidad histórica" "Esto iba a suceder tarde o temprano, así que no solo no debemos detenerlo, ¡sino que debemos acelerarlo!" Vitalik Buterin dio un ejemplo: los entusiastas de la IA en Silicon Valley. Dirían: "La automatización completa de la economía es 'inevitable', y el trabajo humano está destinado a desaparecer gradualmente. Por lo tanto, deberíamos acelerar este proceso ahora". ¿No tiene mucho sentido? La historia sigue su curso. Pero Vitalik Buterin nos recuerda: ¿Quién dijo esto? Fueron aquellas empresas que están totalmente comprometidas con el desarrollo de la IA y con obtener beneficios de ella. Este es un ejemplo clásico del argumento del "índice de defensa bajo". Sustituye una predicción a largo plazo (quizás) razonable ("eventualmente se automatizará") por "así que deberíamos acelerarlo ahora". ¿Por qué este argumento es tan malo? 1. Te hace rendirte. Implica que tu resistencia es inútil. Pero Vitalik Buterin dice, justo lo contrario: cuando todos dicen: «Ríndete, es inevitable», es precisamente cuando tu resistencia es más valiosa. 2. Oscurece otras opciones. La realidad es que existen más opciones que simplemente «ir con todo» y «cerrar». Podríamos habernos centrado en desarrollar IA que asista a los humanos, en lugar de reemplazarlos, lo que nos habría dado más tiempo para una transición segura. 3. Sirve a intereses privados. La "inevitabilidad" es simplemente una fachada elegante utilizada para disfrazar sus verdaderos motivos de "búsqueda de ganancias y poder". Trampa dos: La trampa de "Por un gran futuro" "Para el gran plan maestro de dentro de N años / Para los billones de personas del futuro, debemos ahora..." Vitalik Buterin mencionó el término "longtermismo". Ante todo, debe quedar claro que Vitalik Buterin no está en contra de pensar a largo plazo. Construir carreteras, educar a los niños y ahorrar para la jubilación son formas necesarias y correctas de "pensamiento a largo plazo". Se opone a la versión abusada y "obsesiva" del largo plazo. Por ejemplo: "Por la felicidad de 40 billones (!) de personas que podrían existir dentro de 500 millones de años, debemos sacrificarlo todo hoy a XXX". El quid de esta trampa es que cuando una meta se fija demasiado lejana, se desvincula de la "realidad". Si dices que tu proyecto "será rentable el próximo trimestre", entonces todos verán los resultados el próximo trimestre y quedará claro si es cierto o falso. Pero si dices que tu proyecto "puede salvar al mundo en 500 años", ¿quién volverá dentro de 500 años para verificarlo? Esto ha cambiado la naturaleza de los juegos. Los juegos ya no se tratan de "quién puede crear valor a largo plazo", sino de "quién puede contar la 'historia a largo plazo' más impresionante hoy". Dios dio dos ejemplos brillantes: 1. Burbujas en un entorno de bajos tipos de interés: Cuando los tipos de interés son muy bajos, el dinero pierde valor y a la gente no le importan las rentabilidades a corto plazo. Entonces, persiguen frenéticamente diversas «narrativas sobre el futuro», lo que finalmente conduce a burbujas y su estallido. (Pensemos en esas «soluciones blockchain diseñadas para la industria dental global»). 2. Un “puente a ninguna parte” político: Los políticos solicitan presupuestos enormes para construir un puente que nadie utilizará jamás, citando el “valor a largo plazo” como justificación. ¿Cómo evitar esta trampa? Vitalik Buterin ofrece una regla: cuando una acción tiene "beneficios a largo plazo cuestionables" pero "daños creíbles a corto (o largo plazo)", entonces no la hagas. Trampa tres: La trampa de "Esto perjudica a la sociedad/moralidad" "¡Esto es repugnante/inmoral/daña el tejido social y debe ser prohibido!" A muchas personas les gusta utilizar el poder coercitivo del gobierno para regular los estilos de vida privados de otras personas simplemente porque "no lo soportan". Por ejemplo, algunas personas piden la prohibición de la carne sintética, argumentando que "la carne real fue creada por Dios, mientras que la carne artificial es hecha por el hombre... ¡esto va en contra de la naturaleza!". Pero la razón "No lo soporto" es demasiado simple, por lo que la presentarán como un argumento con un "índice de defensa bajo", por ejemplo: ¡Esto destruirá nuestra estructura moral! ¡Esto amenazará la estabilidad social! "¡Esto nos lo impuso la 'élite global'!" Vitalik Buterin afirmó que el término «estructura moral social» es demasiado vago, tan vago que puede usarse para oponerse a cualquier cosa nueva que no guste. La homosexualidad, la música nueva, la carne sintética... todo ha sido etiquetado con este término. Vitalik Buterin se inclina hacia una forma más moderada de liberalismo: si se quiere prohibir algo, hay que aportar pruebas claras de que ha causado un daño claro a una "víctima clara". Si no puedes explicar claramente quién fue la víctima o qué daño sufrió, es probable que simplemente estés utilizando un lenguaje sofisticado para enmascarar tus prejuicios personales ("Simplemente me da asco"). Trampa cuatro: La trampa de "Esto es para los pobres/el ascenso de clase" "La especulación/el juego no es algo malo; ¡es la única esperanza para que los pobres logren una movilidad social ascendente!" En el mundo de las criptomonedas, a menudo escuchamos este tipo de voces que defienden la especulación de alto riesgo. Este argumento suena muy noble y lleno de compasión, pero Vitalik Buterin cree que es extremadamente "desviado". ¿Por qué? 1. Es matemáticamente erróneo. Los casinos son juegos de suma cero (o incluso de suma negativa). Una persona pobre que entra tiene más probabilidades de empobrecerse aún más. Los principios básicos de la economía (curvas de utilidad) nos dicen que perder 10 000 dólares supone un golpe mucho mayor para una persona pobre que ganar la misma cantidad. Este juego de alto riesgo está «destruyendo» las clases sociales, en lugar de «elevarlas». 2. Sus motivos son impuros. ¿Quiénes son los verdaderos defensores de este argumento? A menudo son personas que ya son ricas y utilizan esta "noble razón" para atraer a más gente (gente pobre) al mercado, de modo que puedan vender sus acciones y obtener dinero. Vitalik Buterin ha instado sistemáticamente a las personas del ecosistema Ethereum a centrarse en las "DeFi de bajo riesgo" en lugar de en las "DeFi buenas". ¿Por qué utilizar el término "bajo riesgo"? Porque "bajo riesgo" es un estándar difícil de manipular; es efectivo y los datos permiten ver claramente si el riesgo es alto o bajo. Pero la palabra "bueno" se presta demasiado al abuso. Cualquiera puede urdir un argumento brillante para explicar por qué su arriesgado proyecto de casino es, en realidad, "bueno" para la sociedad. Quinta trampa: La trampa de "Puedo hacer más dentro del sistema" "Me uní a esta empresa/gobierno (que está acelerando la IA/corrupción) para cambiarlo desde dentro." Esta es la crítica más incisiva de Vitalik Buterin, a la que él llama "Estoy haciendo más desde dentro". En el ámbito de la seguridad de la IA, mucha gente dice: "Quiero unirme a las empresas de IA más radicales para poder tener un impacto en el 'momento crítico' y garantizar la seguridad de la IA". En la realpolitik, muchos dicen: "Me quedo en el gobierno de Putin para usar mi experiencia y mitigar el daño que causa a la economía". (V God citó un informe del Financial Times sobre los tecnócratas rusos). V Dios cree que este es casi el índice más bajo de "prevención de extraviarse". 1. Proporciona la excusa perfecta para "seguir la corriente". No importa lo que estés haciendo en realidad, puedes afirmar: "Hago esto para cambiar las cosas desde dentro". 2. Casi siempre se trata de autoengaño. La realidad es que, al final, te conviertes en una pieza más de esa maquinaria, y todas tus habilidades profesionales se convierten objetivamente en "cómplices", haciendo que la maquinaria a la que dices oponerte funcione aún mejor. ¿Cómo podemos, entonces, evitar desviarnos del camino? Dios dio dos sugerencias muy prácticas: 1. Defiende los principios (en lugar de pensar siempre en "calcular las consecuencias"). Vitalik Buterin defiende una "deontología" de la moralidad. No necesitas entender el término; simplemente significa establecer reglas estrictas que nunca romperás. Por ejemplo: "Nunca robaré", "Nunca engañaré" o "Nunca mataré a una persona inocente". ¿Por qué es esto importante? Debido a otro tipo de "teoría de las consecuencias" ("siempre que el resultado sea bueno, puedo hacer lo que sea necesario"), ¡el riesgo de equivocarse es demasiado bajo! Nuestros cerebros son demasiado buenos para la "racionalización". Si crees en el "consecuencialismo", entonces, cada vez que te encuentres con una tentación (como "este robo me reportará enormes beneficios"), tu "cerebro galáctico" se activará inmediatamente para argumentar por qué "este robo es en realidad beneficioso para el bienestar a largo plazo de toda la humanidad". Siempre puedes convencerte a ti mismo. Los principios firmes son tu cortafuegos contra la arrogancia. 2. Conoce qué bolsillos tienes (Lleva las bolsas adecuadas). En la jerga de las criptomonedas, "Bags" se refiere a los activos que posees (tus "posiciones"). Vitalik Buterin afirma que tu motivación (tu posición) y tu círculo social (tu "bolsillo social") son las fuerzas más poderosas que moldean tu mente. Una vez que se posee una determinada moneda, es difícil verla objetivamente. Si todos tus amigos dicen que la IA es segura, te resultará difícil creer realmente que la IA es peligrosa. No se puede vivir sin "apoyo" (la gente siempre necesita ánimo y amigos), pero al menos se puede: 1. Elige activamente tu "bolsillo". Mantente alejado de los incentivos que distorsionen tu juicio. 2. Diversifica tus “bolsillos” (recursos), especialmente tu círculo social. Esto nos lleva a los dos últimos consejos de Vitalik Buterin para los profesionales de la seguridad de la IA, que también reflejan su propio compromiso con estos principios: 1. No trabajes para empresas que estén acelerando el desarrollo de "inteligencia artificial de vanguardia totalmente automatizada". (Porque distorsionará tu motivación). 2. No viva en el Área de la Bahía de San Francisco. (Porque las opciones de seguridad social allí son demasiado limitadas). Resumir El artículo de Vitalik Buterin, en apariencia, trata sobre inteligencia artificial, criptomonedas y política, pero en realidad ofrece una guía universal para mantener la mente clara en un mundo complejo. Los argumentos más peligrosos no son aquellos plagados de fallos, sino más bien esas "razones universales" que son demasiado flexibles, demasiado sofisticadas y pueden servir a cualquier motivo. La verdadera sabiduría no consiste en tener un "cerebro galáctico" que pueda explicarlo todo, sino en saber cuándo dejar de hacer cálculos "inteligentes" y volver a principios simples, sólidos y poco comunes.
Traducción: Resistiendo la trampa mental de las ideas "alucinantes" Un criterio crucial para juzgar la calidad de un razonamiento o argumentación es lo que yo llamo la capacidad de resistir la resistencia a la falacia de la "mentalidad galáctica" (un meme usado a menudo para satirizar a esas personas "inteligentes" que complican demasiado problemas sencillos o encuentran teorías aparentemente sofisticadas para respaldar puntos de vista erróneos): ¿Qué tan difícil es abusar de ella? ¿Puede usarse para "justificar" algo que uno ya desea hacer por otras razones? Este espíritu es similar a la falsabilidad en la ciencia (una teoría debe poder ser refutada para ser considerada científica): si tu argumento puede probarlo todo, entonces no puede probar nada. Debes detenerte en el paso dos. Para comprender por qué es importante «resistir la imaginación desbordada», la forma más sencilla es observar qué sucede cuando está ausente. Probablemente hayas escuchado muchas afirmaciones similares: Estamos creando un mercado descentralizado completamente nuevo que revolucionará la forma en que los clientes interactúan con sus proveedores y permitirá a los creadores transformar a sus audiencias en naciones digitales. En el ámbito político, la situación puede ser mucho peor. Por ejemplo: Cierto grupo minoritario es responsable de gran parte del desorden social actual; han agotado nuestros recursos. Si pudiéramos erradicarlos por completo (me refiero a erradicarlos por completo, de modo que jamás puedan regresar), aunque sería una acción brutal y puntual, a largo plazo, si pudiera aumentar nuestra tasa de crecimiento económico en un 0,5 %, dentro de 500 años nuestro país sería doce veces más rico que entonces. Esto se traduciría en innumerables vidas más felices y plenas. Sería una grave injusticia permitir que nuestros descendientes vivan en la extrema pobreza simplemente porque somos cobardes y tenemos miedo de pagar este precio hoy. Para refutar los argumentos anteriores, un enfoque consiste en tratarlos como problemas matemáticos en una clase de filosofía: identificar las premisas o pasos específicos con los que no se está de acuerdo y luego refutarlos. Sin embargo, un enfoque más realista es comprender que, en el mundo real, estos argumentos casi nunca son «razonamiento», sino «racionalización» (es decir, primero se presenta una conclusión, seguida del razonamiento que la sustenta). Esas personas ya habían llegado a una conclusión, probablemente motivadas por el interés propio o la emoción (como acaparar el símbolo o, genuinamente, odiar a ese grupo minoritario), y luego elaboraron esos argumentos rebuscados para justificar su postura. El propósito de estos argumentos es: (i) engañar al propio pensamiento racional del orador para que se someta a sus instintos primitivos; y (ii) intentar fortalecer su movimiento reclutando no solo a los engañados, sino también a quienes se consideran inteligentes (o peor aún, a los verdaderamente inteligentes). En este artículo, argumentaré que la dificultad para resistir el pensamiento imaginativo es un fenómeno generalizado, con consecuencias que varían de leves a graves. Asimismo, presentaré algunos patrones de pensamiento que dificultan el pensamiento imaginativo y defenderé su uso. Aquellos patrones de pensamiento que son débiles a la hora de "resistir el pensamiento creativo" Inevitabilismo Fíjense en este tuit reciente; es un ejemplo perfecto que ilustra a la perfección la retórica de la "defensa" de la IA en Silicon Valley: "El desempleo masivo derivado de la automatización es inevitable. Es una ley económica natural ineludible. Nuestra empresa (Mechanize Inc.) tiene como objetivo acelerar este proceso y garantizar una transición fluida, en lugar de resistirse inútilmente a él. Únete a nosotros para construir el futuro." Este es un ejemplo clásico de la falacia de la inevitabilidad. La publicación comienza con una afirmación (quizás razonable): la automatización completa de la economía ocurrirá inevitablemente tarde o temprano. Acto seguido, llega directamente a la conclusión de que deberíamos acelerar activamente ese día (y el consiguiente desempleo de la fuerza laboral humana). ¿Por qué acelerarlo activamente? Ah, ya lo sabemos: porque este tuit fue escrito por una empresa, y el negocio principal de esa empresa consiste precisamente en acelerarlo. Es cierto que el fatalismo es un error filosófico, y podemos refutarlo filosóficamente. Si tuviera que refutarlo, me centraría en tres puntos: El fatalismo presupone la existencia de un mercado infinitamente fluido, donde si uno no actúa, otro ocupará el lugar de inmediato. Esto puede ser cierto en algunos sectores. Pero la IA es todo lo contrario: es un campo donde la gran mayoría del progreso está impulsado por una pequeña minoría de individuos y empresas. Si tan solo uno de ellos se detiene, el ritmo se ralentizará considerablemente. El fatalismo subestima el poder de la toma de decisiones colectiva. Cuando una persona o empresa toma una decisión, a menudo sienta un precedente. Aunque nadie la imite a corto plazo, puede sembrar la semilla para futuras acciones. Plantar cara a algo puede incluso recordar a la gente que adoptar una postura valiente puede ser eficaz. El fatalismo simplifica demasiado las opciones. Mechanize podría seguir adelante con la automatización total de la economía. También podrían cerrar. Pero también podrían reorientarse para centrarse en el desarrollo de formas de automatización parcial, empoderando a quienes aún participan en los procesos y maximizando el periodo en el que la colaboración humano-máquina supera a la IA pura, lo que nos daría más tiempo para una transición segura hacia la superinteligencia. Por supuesto, existen otras opciones que no he considerado. En el mundo real, sin embargo, el fatalismo no se puede vencer con la lógica pura, pues no surgió como producto de ella. En nuestra sociedad, el uso más común del fatalismo es permitir que las personas racionalicen sus acciones (por otros motivos, generalmente la búsqueda de poder político o dinero) a posteriori. Comprender este hecho suele ser la mejor manera de contrarrestarlo: cuando otros más desean que creas que «todo es irreversible» y te persuaden para que te rindas, es precisamente cuando tienes mayor poder de negociación. Largo plazo El «laritmotermismo» es una mentalidad que enfatiza la importancia de los objetivos a largo plazo. Hoy en día, muchas personas asocian este término con el altruismo eficaz, como se puede ver en esta introducción de 80,000 Hours (una organización de asesoramiento profesional relacionada con el altruismo eficaz): Si solo consideramos la población humana futura potencial, esta cifra es asombrosa. Suponiendo simplemente 8 mil millones de personas en cada uno de los próximos 500 millones de años, nuestra población total alcanzaría aproximadamente los 400 billones… y una vez que ya no estemos confinados a la Tierra, el potencial demográfico que debería preocuparnos será verdaderamente enorme. Pero el concepto de «apelar al largo plazo» es mucho más antiguo. Durante siglos, asesores financieros, economistas, filósofos, expertos en la época ideal para plantar árboles y muchos otros han abogado por los sacrificios que se hacen hoy en aras del bien común del futuro. La razón por la que dudo en criticar el «largoplacismo» es porque, sencillamente, el futuro a largo plazo es fundamental. No haríamos una bifurcación dura de una cadena de bloques solo porque alguien haya sido estafado, ya que, si bien podría haber un beneficio puntual, dañaría permanentemente la reputación de la cadena. Como argumenta Tyler Cowen en *Stubborn Attachments*, el crecimiento económico es tan importante porque es una de las pocas cosas que pueden generar un crecimiento compuesto fiable e indefinido en el futuro sin desaparecer ni estancarse en un ciclo. Enséñales a tus hijos que las recompensas llegarán dentro de diez años. Si no adoptas el «largoplacismo» en absoluto, nunca construirás una carretera. Los problemas surgen cuando no se valora el largo plazo. Una cuestión importante a la que me he opuesto personalmente es la "deuda técnica" (las concesiones que hacen los desarrolladores para "tomar atajos" que generan trabajo adicional en el futuro): cuando los desarrolladores de software se centran únicamente en objetivos a corto plazo y carecen de una visión coherente a largo plazo, el resultado es un software que se vuelve cada vez más feo y basura con el tiempo (véase: Mis esfuerzos por simplificar Ethereum L1). Pero aquí hay un escollo: el argumento del "largo plazo" se presta muy bien a la especulación desmedida. Al fin y al cabo, "largo plazo" es un concepto lejano; se pueden inventar todo tipo de historias maravillosas, diciendo que si haces X, casi cualquier cosa buena puede suceder en el futuro. En el mundo real, cuando observamos el comportamiento de los mercados y la política, vemos las desventajas de este enfoque una y otra vez. En el mercado, la variable común que distingue estos dos modelos es el tipo de interés. Cuando los tipos de interés son altos, solo merece la pena invertir en proyectos que generen beneficios claros a corto plazo. Pero cuando los tipos de interés son bajos —de hecho, el término «entorno de bajos tipos de interés» se ha convertido en una expresión común— se describe un escenario en el que mucha gente crea y persigue «narrativas» poco realistas, lo que da lugar a burbujas y crisis. En política, es común escuchar que los políticos actúan con miopía para complacer a los votantes, ocultando los problemas hasta que resurgen tras las próximas elecciones. Pero existe otro problema: el «puente a ninguna parte», un proyecto de infraestructura que se lanza con la promesa de un «valor a largo plazo», pero que nunca se materializa. Entre los ejemplos se incluyen un "puente a ninguna parte" en Letonia, o Dentacoin —una "solución blockchain para la industria dental global"— que en su momento tuvo una capitalización de mercado de más de 1.800 millones de dólares. El problema fundamental en ambos casos es que pensar en el futuro a largo plazo puede llevar a una desconexión con la realidad. En un entorno orientado al corto plazo, si bien se puede ignorar el largo plazo, existe al menos un mecanismo de retroalimentación: si una propuesta promete beneficios a corto plazo, todos pueden comprobar si esos beneficios se materializan realmente en el corto plazo. En un entorno orientado al largo plazo, sin embargo, un argumento sobre los «beneficios a largo plazo» no necesita ser correcto; solo necesita sonar correcto. Por lo tanto, aunque todos afirman estar participando en el juego de «elegir ideas en función de valores a largo plazo», en realidad están participando en el juego de «elegir ideas en función de quién gana en un entorno social a menudo disonante y altamente competitivo». Si se puede justificar algo con una historia de "consecuencias positivas a largo plazo vagas pero enormes", entonces una historia de "consecuencias positivas a largo plazo vagas pero enormes" no prueba nada. ¿Cómo podemos aprovechar las ventajas del pensamiento a largo plazo sin desconectarnos de la realidad? En primer lugar, diría que es realmente difícil. Pero, más allá de eso, creo que existen algunas reglas básicas. La más sencilla es: ¿cuentas con un sólido historial de lo que haces en nombre de los "intereses a largo plazo" que demuestre que realmente genera esos beneficios? El crecimiento económico es un ejemplo. Prevenir la extinción de especies también. Intentar establecer un "gobierno mundial único" no lo es; de hecho, como muchos otros ejemplos, tiene un historial de fracasos reiterados y daños masivos en el proceso. Si la acción que estás considerando tiene beneficios a largo plazo hipotéticos, pero también daños a largo plazo conocidos y fiables, entonces… no la lleves a cabo. Esta regla no siempre se aplica, porque a veces vivimos tiempos sin precedentes. Pero es igualmente importante recordar que la frase misma "vivimos tiempos sin precedentes" dificulta resistirse a ideas descabelladas. Utilizar la "estética personal" como una excusa barata para prohibir cosas Me dan asco los erizos de mar. Estás comiendo las gónadas de un erizo de mar. A veces, en el omakase (restaurante japonés sin menú fijo), incluso me los restriegan en la cara. Aun así, me opongo a su prohibición; es una cuestión de principios. Una conducta que detesto es cuando alguien utiliza el poder coercitivo del gobierno para imponer lo que, en última instancia, no es más que una «preferencia estética personal» en la vida privada de millones de personas. Tener buen gusto estético está bien. Considerar la estética al diseñar espacios públicos también es positivo. Pero imponer el propio gusto estético en la vida privada de los demás es inaceptable: el costo de imponerlo supera con creces los beneficios psicológicos propios, y si todos quisieran hacerlo, inevitablemente conduciría a la hegemonía cultural, o a una «guerra política de todos contra todos». Es fácil ver que los ejemplos de políticos que impulsan prohibiciones con excusas tan ridículas como «Uh, creo que esto es asqueroso» son prácticamente algo común. Una fuente abundante de ejemplos son los diversos movimientos antigay. Por ejemplo, Vitaly Mironov, diputado de la Duma de San Petersburgo: Las personas LGBT (gays, bisexuales y transgénero) no tienen derechos. En nuestro país, sus derechos no figuran en la lista de valores protegidos de importancia social. Estos supuestos «pervertidos» poseen todos los derechos que les corresponden como ciudadanos de nuestro país, pero no están incluidos en una «lista ampliada de derechos prioritarios». Los eliminaremos definitivamente de la lista de derechos humanos de nuestro país. Incluso el propio Vladimir Putin ha intentado justificar la invasión de Ucrania quejándose de que Estados Unidos tiene demasiado «satanismo». Un ejemplo más reciente, aunque ligeramente distinto, es la campaña estadounidense para prohibir la «carne sintética». La «carne cultivada» no es carne... es artificial. La carne de verdad la crea Dios mismo... Si de verdad quieres probar esa «pasta de proteína nitrogenada», vete a California. Pero muchas más personas adoptan un enfoque más «civilizado», intentando disimular su aversión con algún tipo de excusa. Una excusa común es el «tejido moral de la sociedad», la «estabilidad social» y razones similares. Estos argumentos también se utilizan con frecuencia para justificar la «censura». ¿Cuál es el problema? Dejaré que Scott Alexander (un conocido bloguero que escribe artículos en profundidad sobre temas como la racionalidad y la IA) responda a esta pregunta: El «principio flexible del daño» se refiere a la idea de que los gobiernos pueden indignarse por daños complejos e indirectos —aquellos que «debilitan el tejido moral de la sociedad»—, pero permitir que exista este principio equivale a revivir todas esas antiguas guerras de «control» que el «liberalismo» debería haber evitado. Alguien dice: «¡El matrimonio entre personas del mismo sexo fomentará una mayor aceptación de la homosexualidad, lo que resultará en mayores tasas de enfermedades de transmisión sexual! ¡Esto es perjudicial! ¡Debemos prohibir el matrimonio entre personas del mismo sexo!». Otra persona dice: «Permitir que las personas envíen a sus hijos a escuelas privadas puede llevar a que los niños difundan sentimientos antigay en escuelas religiosas, lo que podría provocar que cometan delitos de odio en el futuro. ¡Esto es perjudicial! ¡Debemos prohibir las escuelas privadas!». Y así, el ciclo continúa sin cesar. Existe, sin duda, una «estructura moral social»; es evidente que algunas sociedades son más morales que otras en muchos aspectos. Sin embargo, también es vaga e indefinida, lo que facilita enormemente su abuso; casi cualquier cosa puede calificarse como una «violación de la estructura moral social». Lo mismo ocurre con la apelación más directa a la «sabiduría de la repugnancia», que ha sido devastadora para el progreso científico y médico. También se aplica a las narrativas emergentes del tipo «simplemente no me gusta, así que lo prohíbo», un ejemplo común es la lucha contra las «élites globales» y la defensa de la «cultura local». Analicemos algunas de las declaraciones de quienes se oponen a la carne sintética (recuerden, estas personas no explican por qué ellas mismas no comen carne sintética, sino por qué quieren obligar a los demás a aceptar su elección): La "élite global" quiere controlar nuestro comportamiento y obligar a los estadounidenses a aceptar una dieta de "carne petrificada y gusanos". Florida dice "no". Me enorgullece haber firmado la SB 1084, que impide la entrada de carne cultivada en laboratorio a Florida y prioriza la protección de nuestros agricultores y ganaderos, no la agenda de la élite ni del Foro Económico Mundial. Puede que a algunas personas les guste comer insectos con Bill Gates, pero a mí no. Esta es una de las principales razones por las que simpatizo en gran medida con el libertarismo moderado (una filosofía política que enfatiza la libertad individual y un gobierno limitado). Me gustaría vivir en una sociedad donde prohibir algo requiera una explicación clara del daño o riesgo que representa para una víctima específica, y si dicha explicación se demuestra con éxito en los tribunales, entonces la ley debería ser derogada. Esto reduce considerablemente la probabilidad de que el gobierno sea controlado por grupos de interés y utilizado para imponer preferencias culturales en la vida privada de otros, o para librar una guerra de todos contra todos. Defensa de las "finanzas inferiores" En el mundo de las criptomonedas, es frecuente escuchar argumentos pésimos que intentan persuadirte para que inviertas en diversos proyectos de alto riesgo. A veces suenan "brillantes", como por ejemplo, cómo un proyecto "revoluciona" (es decir, participa en) una industria multimillonaria, o lo único que es este proyecto en particular, haciendo algo que nadie más ha hecho. Otras veces, simplemente se trata de que "el precio subirá gracias al respaldo de las celebridades". No me opongo a que la gente se divierta, incluso arriesgando parte de su dinero. A lo que me opongo es a que se anime a la gente a invertir la mitad de su patrimonio neto en un token que, según los influencers, subirá de precio con seguridad, cuando lo más probable es que el token no valga nada en dos años. Pero lo que me molesta aún más es el argumento de que estos juegos especulativos con tokens son "moralmente correctos" porque los pobres necesitan este tipo de rentabilidad rápida (multiplicando su inversión por diez) para tener una oportunidad justa en la economía actual. Como este argumento: Para alguien con un patrimonio neto de 5.000 dólares, el consejo de "ir despacio e invertir en fondos indexados" es una auténtica pesadilla. Lo que necesitan es ascender socialmente. Necesitan asumir riesgos y obtener grandes beneficios. Las criptomonedas (memecoins) son la única opción en la actualidad que les ofrece esa oportunidad. Este argumento es pésimo. Una forma de refutarlo es deconstruir y descartar la afirmación de que «esta es una forma significativa o beneficiosa de movilidad social», como cualquier otro argumento. El quid de la cuestión es que los casinos son un juego de suma cero. En pocas palabras, por cada persona que asciende socialmente gracias a este juego, otra desciende. Pero si profundizamos en las matemáticas, la situación empeora aún más. Uno de los primeros conceptos que se aprenden en cualquier libro de texto estándar de economía del bienestar es que la función de utilidad de una persona para el dinero es cóncava (el texto original usa erróneamente el término convexa, pero a partir del diagrama y el contexto, el autor se refiere claramente a una función cóncava, es decir, de utilidad marginal decreciente. Lo traduciremos literalmente). Cuanto más rico se es, menor es la utilidad (satisfacción) que se obtiene de cada dólar adicional. Observe que cuanto más dinero tenga (eje horizontal), menor será la pendiente de la curva (el valor de cada dólar). Este modelo arroja una conclusión importante: los lanzamientos de moneda al azar (juegos de azar), especialmente los de alto riesgo, son, en promedio, perjudiciales. El dolor de perder 100 000 dólares es mayor que el placer de ganarlos. Si construimos un modelo donde usted posee actualmente 200 000 dólares, y cada duplicación de su patrimonio (es decir, un aumento del 100 % o una disminución del 50 %) lo hace ascender o descender una clase social, entonces, si gana una apuesta de 100 000 dólares (su patrimonio aumenta a 300 000 dólares), asciende aproximadamente media clase social; pero si la pierde (su patrimonio vuelve a ser de 100 000 dólares), desciende una clase social completa. Los modelos económicos elaborados por académicos que estudian genuinamente la toma de decisiones humanas y buscan mejorar la vida de las personas casi siempre llegan a esta conclusión. Entonces, ¿qué tipo de modelo económico llegaría a la conclusión opuesta: que deberías invertirlo todo para obtener una rentabilidad de 10x? La respuesta es: historias inventadas por personas cuyo objetivo es encontrar una buena historia para las criptomonedas con las que especulan. Mi propósito aquí no es culpar a quienes son verdaderamente pobres y están desesperados, buscando una salida. Más bien, mi objetivo es culpar a quienes tienen una buena posición económica, quienes utilizan el pretexto de que «los pobres y desesperados realmente necesitan ese diez veces más» para justificar sus acciones de «tender trampas para atraer a los pobres a una situación aún más precaria». Esto explica en gran medida por qué he estado impulsando al ecosistema Ethereum a centrarse en las finanzas descentralizadas (DeFi) de bajo riesgo. Permitir que las personas del Tercer Mundo escapen del colapso político de sus monedas y accedan a tipos de interés (estables) en el Primer Mundo es algo extraordinario; puede ayudar milagrosamente a que la gente ascienda socialmente sin perjudicar a otros. Recientemente, alguien me preguntó: ¿por qué no decir «DeFi responsable» en lugar de «DeFi de bajo riesgo»? Al fin y al cabo, no todas las DeFi de alto riesgo son malas, ni todas las de bajo riesgo son buenas. Mi respuesta es: si nos centramos en las «DeFi responsables», cualquiera puede fácilmente «pensar de forma innovadora» y argumentar que cualquier tipo de DeFi es «bueno». Pero si decimos «DeFi de bajo riesgo», es una categoría vinculante; es muy difícil «pensar de forma innovadora» y llamar «de bajo riesgo» a una actividad que claramente lleva a la quiebra a la gente de la noche a la mañana. Desde luego, no me opongo a la existencia de DeFi de alto riesgo; al fin y al cabo, me gustan los mercados de predicción (plataformas donde se apuesta al resultado de eventos futuros). Pero un ecosistema más sano sería aquel donde DeFi de bajo riesgo fuera el plato principal y DeFi de alto riesgo un complemento: algo divertido y experimental, no algo que te permita apostar la mitad de tus ahorros. La pregunta final: ¿Es la opinión de que "los mercados de predicción no son solo juegos de azar; benefician a la sociedad al mejorar el acceso a información precisa" simplemente una racionalización descabellada y basada en la retrospectiva? Algunos ciertamente piensan que sí: "Los mercados de predicción no son más que astrología practicada por hombres con estudios universitarios que utilizan términos como 'valor cognitivo' y 'utilidad social' para encubrir el hecho de que simplemente están apostando." Permítanme defenderme. La razón por la que esto no se considera una «racionalización a posteriori» es que la tradición académica de valorar los mercados de predicción e intentar convertirlos en realidad existe desde hace treinta años, mucho más tiempo que la posibilidad de que alguien se enriquezca con ellos (ya sea creando un proyecto o participando en él). Esta «tradición académica preexistente» es algo de lo que carecen las memecoins e incluso ejemplos más marginales como los tokens personales. Sin embargo, insisto, los mercados de predicción no son DeFi de bajo riesgo, por lo que son un complemento, no algo que permita arriesgar la mitad de tu patrimonio. maximización de la potencia Dentro del ámbito del «altruismo eficaz» (AE) relacionado con la IA, existen muchas personas influyentes que, si se les pregunta, admitirán abiertamente que su estrategia consiste en acumular el mayor poder posible. Su objetivo es ocupar posiciones ventajosas para que, cuando llegue un «momento crucial», puedan intervenir con toda su fuerza y recursos y «hacer lo correcto». La «maximización del poder» es la estrategia más «impresionante». El argumento «Dame poder para poder hacer X» es igualmente persuasivo, independientemente de qué sea X. Antes de ese «momento crítico» (en la teoría del apocalipsis de la IA, esto se refiere al momento previo a que alcancemos la utopía o a que toda la humanidad muera y se convierta en clips), tus acciones por motivos «altruistas» se ven exactamente iguales a tus acciones por «egoísmo egoísta». Por lo tanto, cualquiera que intente lograr esto último puede decirte, sin ningún coste, que se esfuerza por lograr lo primero y convencerte de que es buena persona. Desde una perspectiva externa (un método para corregir sesgos cognitivos que prioriza el análisis de datos estadísticos de situaciones similares en lugar de basarse en sentimientos subjetivos), este argumento resulta claramente absurdo: todos se creen más morales que los demás, por lo que es fácil ver que, aunque todos crean que maximizar su poder es beneficioso, en realidad no lo es. Pero desde una perspectiva interna, si observamos el mundo y vemos odio en las redes sociales, corrupción política, ciberataques y las acciones desenfrenadas de otras empresas de IA, la idea de «soy el bueno, debería ignorar este mundo corrupto y resolver los problemas por mi cuenta» resulta sin duda atractiva. Y es precisamente por eso que adoptar una perspectiva externa es saludable. Como alternativa, puedes adoptar una perspectiva interna diferente, más humilde. Aquí tienes un argumento interesante del foro de «Altruismo eficaz»: Podría decirse que la mayor ventaja de invertir reside en su capacidad para generar un crecimiento exponencial de los recursos financieros, que posteriormente pueden destinarse a la filantropía. Desde su creación en 1926, el S&P 500 ha logrado una rentabilidad anualizada, ajustada a la inflación, de aproximadamente el 7%. El riesgo de «desviación de valores» es más difícil de estimar, pero constituye un factor significativo. Por ejemplo, diversas fuentes indican que la tasa media anual de «desviación de valores» entre los individuos que forman parte de una comunidad altruista eficaz es de aproximadamente el 10%. En otras palabras, si bien su patrimonio puede crecer un 7% anual, los datos empíricos también sugieren que si usted cree en una causa hoy, su creencia en ella podría disminuir un 10% mañana. Esto coincide con una observación de Tanner Greer: los intelectuales públicos suelen tener una «vida útil» de entre 10 y 15 años, tras los cuales sus ideas ya no destacan entre el ruido de fondo que las rodea (en cuanto a la relevancia del hecho de que comencé a publicar mis escritos en 2011, dejo que el lector lo juzgue). Por lo tanto, si acumulas riqueza con el fin de "actuar más adelante", tu yo futuro bien podría usar esa riqueza extra para hacer cosas que tú mismo ahora ni siquiera apoyarías. "Puedo hacer más internamente" En el ámbito de la seguridad de la IA, un problema recurrente es la mezcla de «maximización del poder» y «fatalismo»: la creencia de que la mejor manera de avanzar en la seguridad de la IA es unirse a empresas que están acelerando el desarrollo de IA superinteligente e intentar mejorarlas «desde dentro». A menudo se encuentran justificaciones como las siguientes: “Estoy muy decepcionado con OpenAI. Necesitan más empleados con conciencia de seguridad como yo. Anuncio que me uniré a ellos para impulsar el cambio desde dentro.” Desde una perspectiva interna, esto parece razonable. Sin embargo, desde una perspectiva externa, uno se convierte esencialmente en algo así: Personaje A: "Este lugar es terrible." Personaje B: "¿Entonces por qué no te has ido todavía?" Personaje A: "Tengo que quedarme y asegurarme de que empeore". Otro buen ejemplo de esta corriente de pensamiento es el sistema político de la Rusia moderna. A continuación, me gustaría citar este artículo del Financial Times: El 24 de febrero, tres días después de que Putin reconociera a los separatistas del Donbás, lanzó una ofensiva a gran escala contra Ucrania, superando con creces sus peores expectativas. Al igual que el resto del mundo, solo se enteraron de las verdaderas intenciones de Putin a través de la televisión. El hecho de que Putin no atendiera las advertencias de los tecnócratas les asestó un duro golpe. Un ex ejecutivo que conoció a Gref (director ejecutivo de Sberbank) al principio de la guerra declaró: «Nunca lo había visto así. Estaba completamente destrozado, en estado de shock. Todos pensaban que era un desastre, y él más que nadie». En el reducido círculo de la élite política rusa, tecnócratas como Gref y Nabiullina (gobernadores del Banco Central de Rusia), otrora considerados fuerzas modernistas y reformistas que contrarrestaban a los «siloviki» (altos cargos del aparato de seguridad de línea dura) de Putin, se retractaron ante la oportunidad histórica de defender sus convicciones en los mercados abiertos y oponerse públicamente a la guerra. Según exfuncionarios, estos tecnócratas, en lugar de romper con Putin, han consolidado su papel como "facilitadores", utilizando su experiencia y herramientas para mitigar el impacto de las sanciones occidentales y mantener la economía de guerra de Rusia. De igual modo, el problema reside en la frase «Puedo hacer más internamente», y la resistencia a «pensar de forma creativa» es increíblemente baja. Siempre es fácil decir «Puedo hacer más internamente», independientemente de lo que realmente hagas. Así, terminas siendo solo una pieza más del engranaje, desempeñando el mismo papel que quienes te rodean: aquellos que trabajan para mantener a sus familias con mansiones y cenas caras a diario; solo que tus razones suenan mejor. Entonces, ¿cómo se puede evitar "pensar de forma creativa"? Puedes hacer muchas cosas diferentes, pero me centraré en dos: Adherirse a los principios Establece límites claros sobre lo que "no quieres hacer" —no mates a personas inocentes, no robes, no hagas trampas, respeta la libertad personal de los demás— y fija un umbral muy alto para cualquier excepción. Los filósofos suelen llamar a esto «ética deontológica» (que enfatiza las obligaciones y las reglas, en lugar de los resultados). La deontología confunde a muchos: naturalmente, si existe una razón fundamental detrás de tus reglas, ¿no deberías perseguir esa razón directamente? Si «no robar» es una regla porque robar generalmente perjudica más a la víctima que beneficia a quien lo hace, entonces deberías seguir la regla de «no hacer cosas que causen más daño que bien». Pero si a veces robar es «más beneficioso que perjudicial», ¡entonces roba! El problema de este enfoque consecuencialista (que se centra únicamente en los resultados, no en el proceso) es que carece por completo de capacidad para resistir el pensamiento sumamente imaginativo. Nuestros cerebros son muy hábiles para encontrar razones que justifiquen que «en esta situación particular, lo que usted (por otras razones) ha querido hacer durante mucho tiempo resulta ser de gran beneficio para toda la humanidad». La deontología, en cambio, diría: No, eso no es posible. Una forma de deontología es el utilitarismo de reglas: las reglas se eligen en función de lo que aporta el mayor beneficio, pero a la hora de elegir acciones específicas, simplemente se siguen las reglas que ya se han elegido. "Acepta" la "carga" correcta. Otro tema recurrente, mencionado anteriormente, es que tu comportamiento suele estar determinado por tus «incentivos»; en el argot de las criptomonedas, por los «activos» que posees (es decir, los activos o posiciones que tienes y que, a su vez, influyen en tus opiniones y acciones). Es difícil resistir esta presión. La forma más sencilla de evitarla es no generarte incentivos negativos. Otro corolario es evitar aferrarse a las cargas sociales equivocadas: los círculos sociales a los que perteneces. No puedes intentar prescindir de ellas; hacerlo va en contra de nuestros instintos humanos más básicos. Pero, como mínimo, puedes diversificarlas. El paso más sencillo para lograrlo es elegir con criterio tu entorno físico. Esto me recuerda mi sugerencia personal sobre el ya manido tema de 'cómo contribuir a la seguridad de la IA': - No trabajes para una empresa que esté acelerando el desarrollo de capacidades de "IA de vanguardia y totalmente autónoma". - No vivo en el área de la Bahía de San Francisco

