Este artigo está realmente muito bem escrito. Vamos usar IA para ajudar na interpretação (a interpretação é excelente e mais fácil de entender do que uma tradução direta). Olá pessoal. Você costuma ver discussões online em que um lado fala com eloquência e cita uma ampla gama de fontes, parecendo "muito inteligente", mas você sempre se sente desconfortável, como se "algo estivesse errado"? Você tem razão. Às vezes, quanto mais complexo um argumento, quanto mais ele "explica tudo", mais suspeito ele se torna. O fundador do Ethereum, Vitalik Buterin, escreveu recentemente um longo artigo discutindo especificamente esse fenômeno. Ele cunhou um ótimo termo: "Resistência do Cérebro Galáctico". "Cérebro Galáctico" é um meme que retrata um cérebro normal evoluindo gradualmente para um cérebro luminoso que ilumina todo o universo. É frequentemente usado para satirizar "pessoas inteligentes" que pensam demais, complicam problemas simples e, por fim, chegam a conclusões absurdas. Portanto, o índice de "Resistência do Cérebro Galáctico" mencionado por Vitalik Buterin mede a dificuldade de uma forma de pensar ou argumentar ser usada indevidamente para justificar "qualquer coisa que você queira fazer". Este artigo é muito importante porque expõe um dos maiores mitos do nosso tempo: sempre pensamos que o debate se trata de encontrar a verdade, mas Vitalik Buterin aponta, de forma incisiva, que no mundo real, a maioria das discussões sofisticadas não se baseia no "raciocínio", mas sim na "racionalização". Qual o significado? Isso significa que muitas pessoas primeiro chegam a uma conclusão com base em emoções, intuição ou interesse próprio (como possuir uma determinada moeda ou não gostar de um determinado grupo) e, em seguida, mobilizam toda a sua inteligência para encontrar razões aparentemente sofisticadas para sustentar essa conclusão. Essa abordagem de "atirar primeiro e depois desenhar o alvo" é totalmente fanática. E esses argumentos sobre "baixo índice de defesa" são suas armas favoritas, porque são versáteis e podem ser usados para defender quase tudo. Em seu artigo, Vitalik Buterin nomeou várias das armadilhas mentais mais populares e perigosas relacionadas ao "baixo índice de defesa". Vamos analisar como essas armadilhas são aplicadas. Armadilha 1: A Armadilha da "Inevitabilidade Histórica" "Isso ia acontecer mais cedo ou mais tarde, então não só não devemos impedir, como devemos acelerar o processo!" Vitalik Buterin deu um exemplo: os entusiastas da IA no Vale do Silício. Eles diriam: "A automação completa da economia é 'inevitável', e o trabalho humano está destinado a ser gradualmente eliminado. Portanto, devemos acelerar esse processo agora." Faz todo o sentido, não é? As engrenagens da história continuam girando. Mas Vitalik Buterin nos lembra: Quem disse isso? Foram aquelas empresas que estão totalmente comprometidas com o desenvolvimento de IA e com o lucro que ela proporciona. Este é um exemplo clássico do argumento do "baixo índice de defesa". Ele substitui uma previsão de longo prazo (talvez) razoável ("eventualmente será automatizado") por "então devemos acelerá-lo agora". Por que esse argumento é tão ruim? 1. Isso faz você desistir. Implica que sua resistência é inútil. Mas Vitalik Buterin diz justamente o contrário: quando todos dizem "Desista, é inevitável", é precisamente quando sua resistência se torna mais valiosa. 2. Isso obscurece outras opções. A realidade é que existem mais opções do que simplesmente "dar tudo de si" e "desligar tudo". Poderíamos ter nos concentrado no desenvolvimento de IA que auxiliasse os humanos, em vez de substituí-los, o que nos daria mais tempo para uma transição segura. 3. Serve a interesses privados. A "inevitabilidade" é apenas uma fachada sofisticada usada para disfarçar seus verdadeiros motivos de "buscar lucro e poder". Armadilha Dois: A Armadilha de "Por um Grande Futuro" "Para o grande projeto de daqui a N anos / Para os trilhões de pessoas no futuro, nós devemos agora..." Vitalik Buterin mencionou o termo "longo prazo". Antes de mais nada, é importante deixar claro que Vitalik Buterin não é contra o pensamento a longo prazo. Construir estradas, educar os filhos e poupar para a aposentadoria são formas necessárias e corretas de "pensamento a longo prazo". Ele se opõe à versão abusada e "obsessiva" do pensamento a longo prazo. Por exemplo: "Para a felicidade de 40 trilhões (!) de pessoas que podem existir daqui a 500 milhões de anos, devemos sacrificar tudo hoje por XXX." O cerne dessa armadilha é que, quando uma meta é definida muito distante, ela se desvincula da "realidade". - Se você disser que seu projeto "será lucrativo no próximo trimestre", então todos verão os resultados no próximo trimestre e ficará claro se isso é verdade ou não. Mas se você disser que seu projeto "pode salvar o mundo em 500 anos", quem voltará daqui a 500 anos para verificar isso? Isso mudou a natureza dos jogos. Os jogos não são mais sobre "quem consegue realmente criar valor a longo prazo", mas sim sobre "quem consegue contar a 'história de longo prazo' mais impressionante hoje". Deus deu dois exemplos brilhantes: 1. Bolhas em um ambiente de baixas taxas de juros: Quando as taxas de juros estão muito baixas, o dinheiro não vale nada e as pessoas não se importam com retornos de curto prazo. Elas então perseguem freneticamente várias "narrativas sobre o futuro", o que acaba levando à formação de bolhas e ao seu colapso. (Pense naquelas "soluções de blockchain projetadas para a indústria odontológica global".) 2. Uma "ponte para lugar nenhum" política: Políticos solicitam orçamentos enormes para construir uma ponte que ninguém jamais usará, citando o "valor a longo prazo" como justificativa. Como evitar essa armadilha? Vitalik Buterin oferece uma regra: quando uma ação apresenta "benefícios questionáveis a longo prazo", mas "danos críveis a curto (ou longo prazo)", então não a faça. Armadilha Três: A Armadilha do "Isso Prejudica a Sociedade/Moralidade" "Isto é repugnante/imoral/prejudica o tecido social e deve ser proibido!" Muitas pessoas gostam de usar o poder coercitivo do governo para regular o estilo de vida privado de outras pessoas simplesmente porque "não suportam". Por exemplo, algumas pessoas estão pedindo a proibição da carne sintética, argumentando que "a carne verdadeira foi criada por Deus, enquanto a carne artificial é feita pelo homem... isso vai contra a natureza!" Mas a razão "Eu não suporto isso" é muito simples, então eles a apresentarão como um argumento com um "baixo índice de defesa", por exemplo: "Isso destruirá nossa estrutura moral!" "Isto ameaçará a estabilidade social!" "Isso nos foi imposto pela 'elite global'!" Vitalik Buterin disse que o termo "estrutura moral social" é vago demais, tão vago que pode ser usado para se opor a qualquer novidade de que se não goste. Homossexualidade, música contemporânea, carne sintética... tudo já foi rotulado com esse termo. Vitalik Buterin inclina-se para uma forma mais moderada de liberalismo: se você quiser proibir algo, deve fornecer provas claras de que isso causou danos evidentes a uma "vítima evidente". Se você não consegue explicar claramente quem foi a vítima ou qual o dano que ela sofreu, provavelmente está apenas usando uma linguagem sofisticada para mascarar seus preconceitos pessoais ("Eu simplesmente sinto nojo"). Armadilha Quatro: A Armadilha do "Isto é para os pobres/ascensão social" "Especular/jogar não é algo ruim; é a única esperança para os pobres alcançarem uma ascensão social!" No universo das criptomoedas, ouvimos frequentemente esse tipo de voz defendendo a especulação de alto risco. Esse argumento soa muito nobre e cheio de compaixão, mas Vitalik Buterin acredita que ele é extremamente "desviante". Por que? 1. Matematicamente, isso está errado. Cassinos são jogos de soma zero (ou até mesmo de soma negativa). Uma pessoa pobre que entra em um cassino tem mais probabilidade de ficar ainda mais pobre. Os princípios básicos da economia (curvas de utilidade) nos dizem que perder US$ 10.000 é um golpe muito maior para uma pessoa pobre do que ganhar US$ 10.000. Esse jogo de alto risco está "destruindo" as classes sociais, em vez de "elevá-las". 2. Seus motivos são impuros. Quem são os verdadeiros defensores desse argumento? Muitas vezes, são aqueles que já são ricos e usam essa "nobre razão" para atrair mais pessoas (pessoas pobres) para o mercado, para que possam vender suas ações e lucrar. Vitalik Buterin tem insistido constantemente para que as pessoas no ecossistema Ethereum se concentrem em "DeFi de baixo risco" em vez de "DeFi de qualidade". Por que usar o termo "baixo risco"? Porque "baixo risco" é um padrão difícil de ser usado indevidamente; ele tem força, e se o risco é alto ou baixo pode ser claramente visto pelos dados. Mas a palavra "bom" é muito facilmente mal utilizada. Qualquer um pode elaborar um argumento genial para explicar por que seu projeto de cassino de alto risco é, na verdade, "bom" para a sociedade. Armadilha Cinco: A Armadilha do "Eu posso fazer mais dentro do sistema" "Entrei nesta empresa/governo (que está acelerando a IA/corrupção) para mudá-la por dentro." Essa é a crítica mais incisiva de Vitalik Buterin, que ele chama de "Estou fazendo mais de dentro para fora". Na área de segurança da IA, muitas pessoas dizem: "Quero me juntar às empresas de IA mais inovadoras para poder causar impacto no 'momento crítico' e garantir a segurança da IA." Na realpolitik, muitas pessoas dizem: "Permaneço no governo de Putin para usar minha experiência a fim de mitigar os danos que ele causa à economia." (V God citou uma reportagem do Financial Times sobre tecnocratas russos.) Deus acredita que este é quase o índice mais baixo de "prevenção de se desviar". 1. Isso fornece a desculpa perfeita para "seguir a multidão". Não importa o que você esteja realmente fazendo, você pode alegar: "Estou fazendo isso para mudar as coisas de dentro para fora". 2. É quase sempre autoengano. A realidade é que, no fim das contas, você se torna apenas uma engrenagem eficiente nessa máquina, e todas as suas habilidades profissionais se tornam objetivamente "cúmplices", fazendo com que a máquina que você alega combater funcione ainda melhor. Então, como podemos evitar nos desviar do caminho? Deus deu duas sugestões muito práticas: 1. Defenda os princípios (em vez de ficar sempre pensando em "calcular as consequências"). Vitalik Buterin defende uma "deontologia" da moralidade. Você não precisa entender o termo; significa simplesmente estabelecer regras rígidas para si mesmo que você nunca quebrará. Por exemplo: "Eu nunca roubarei", "Eu nunca trapacearei" ou "Eu nunca matarei uma pessoa inocente". Por que isso é importante? Devido a outro tipo de "teoria das consequências" ("contanto que o resultado seja bom, posso fazer o que for preciso"), o risco de errar é muito baixo! Nossos cérebros são muito bons em "racionalizar". Se você acredita no "consequencialismo", então, sempre que se deparar com uma tentação (como "este roubo me trará lucros enormes"), seu "cérebro galáctico" será imediatamente ativado para argumentar "por que este roubo é, na verdade, benéfico para o bem-estar a longo prazo de toda a humanidade". Você sempre pode se convencer disso. Princípios firmes são a sua proteção contra ser "inteligente demais". 2. Saiba quais bolsos você tem (Segure as bolsas certas) Na gíria das criptomoedas, "Bags" se refere aos ativos que você possui (suas "posições"). Vitalik Buterin afirma que sua motivação (sua posição) e seu círculo social (seu "núcleo social") são as forças mais poderosas que moldam sua mente. - Depois de possuir uma determinada moeda, é difícil analisá-la objetivamente. - Se todos os seus amigos dizem que a IA é segura, fica difícil para você realmente acreditar que a IA é perigosa. Você não pode viver sem "bolsões" (as pessoas sempre precisam de incentivo e amigos), mas pelo menos pode: 1. Escolha ativamente o seu "bolso". Evite incentivos que distorçam seu julgamento. 2. Diversifique seus "recursos", especialmente seu círculo social. Isso nos leva aos dois últimos conselhos de Vitalik Buterin para profissionais de segurança de IA, que também refletem seu próprio compromisso com esses princípios: 1. Não trabalhe para empresas que estejam acelerando o desenvolvimento de "IA de ponta totalmente automatizada". (Porque isso distorcerá sua motivação.) 2. Não more na região da Baía de São Francisco. (Porque as opções de previdência social lá são muito limitadas.) Resumir O artigo de Vitalik Buterin, à primeira vista, aborda inteligência artificial, criptomoedas e política, mas, na realidade, oferece um guia universal para manter a clareza mental em um mundo complexo. Os argumentos mais perigosos não são aqueles repletos de falhas, mas sim as "razões universais" que são muito flexíveis, muito sofisticadas e podem servir a qualquer propósito. A verdadeira sabedoria não consiste em ter um "cérebro galáctico" capaz de explicar tudo, mas em saber quando parar com os cálculos "inteligentes" e retornar a princípios simples, sólidos e incomuns.
Resistindo à armadilha mental das ideias "impressionantes" Um critério crucial para avaliar a qualidade de uma forma de pensar ou argumentar é o que eu chamo de capacidade de resistir à resistência da mente genial (um meme frequentemente usado para satirizar aquelas "pessoas inteligentes" que complicam demais problemas simples ou encontram teorias aparentemente sofisticadas para sustentar pontos de vista falhos): Quão difícil é ser manipulado? Você pode usá-lo para "justificar" algo que você (já quer fazer por outros motivos)? Esse espírito é semelhante à falseabilidade na ciência (uma teoria precisa poder ser comprovada como errada para ser considerada uma teoria científica): se o seu argumento pode provar tudo, então ele não pode provar nada. Você deve parar na etapa dois. Para entender por que 'resistir à imaginação desenfreada' é importante, a maneira mais simples é observar o que acontece quando ela está ausente. Você provavelmente já ouviu muitas afirmações semelhantes: Estamos construindo um mercado descentralizado completamente novo que revolucionará a forma como os clientes interagem com seus fornecedores e permitirá que os criadores transformem seu público em nações digitais. Na arena política, a situação pode ser muito pior. Por exemplo: [Um certo grupo minoritário] é responsável por grande parte da desordem social atual; eles esgotaram nossos recursos. Se pudéssemos erradicá-los completamente (e digo 'completamente', para que jamais retornem), embora fosse uma ação brutal e isolada, a longo prazo, se isso pudesse aumentar nossa taxa de crescimento econômico em 0,5%, então, daqui a 500 anos, nosso país seria 12 vezes mais rico do que era naquela época. Isso resultaria em inúmeras vidas mais felizes e plenas. Seria uma grave injustiça permitir que nossos descendentes vivessem em extrema pobreza simplesmente porque somos covardes e temos medo de pagar esse preço único hoje. Para refutar os argumentos acima, uma abordagem seria tratá-los como problemas de matemática em uma aula de filosofia: identificar as premissas ou etapas específicas com as quais você discorda e, em seguida, refutá-las. No entanto, uma abordagem mais realista é perceber que, no mundo real, esses argumentos quase nunca são "raciocínio" — são "racionalização" (ou seja, uma conclusão é apresentada primeiro, seguida pelo raciocínio que a justifica). Essas pessoas já haviam chegado a uma conclusão, provavelmente motivadas por interesse próprio ou emoção (como acumular o token para si mesmas ou nutrir um ódio genuíno por aquele grupo minoritário), e então fabricaram esses argumentos rebuscados para justificar sua posição. O objetivo desses argumentos rebuscados é: (i) enganar o próprio "pensamento superior" do orador, levando-o a ceder aos "instintos primitivos"; e (ii) tentar fortalecer seu movimento recrutando não apenas os enganados, mas também aqueles que se consideram inteligentes (ou pior, os verdadeiramente inteligentes). Neste artigo, argumentarei que uma fraca capacidade de resistir ao pensamento imaginativo é um fenômeno generalizado, com consequências que variam de leves a graves. Apresentarei também alguns padrões de pensamento eficazes que resistem ao pensamento imaginativo e defenderei seu uso. Esses padrões de pensamento que são fracos em "resistir ao pensamento criativo" Inevitabilismo Veja este tweet recente; é um excelente exemplo, que ilustra perfeitamente a retórica da "defesa" da IA no Vale do Silício: "O desemprego em massa resultante da automação é inevitável. É uma lei econômica natural incontornável. Nossa empresa (Mechanize Inc.) visa acelerar esse processo e garantir uma transição tranquila, em vez de resistir a ele inutilmente. Junte-se a nós na construção do futuro." Este é um exemplo clássico da falácia da inevitabilidade. A publicação começa com uma afirmação (talvez razoável): a automação completa da economia inevitavelmente acontecerá eventualmente. Em seguida, salta diretamente para a conclusão: devemos acelerar ativamente esse dia (e o consequente desemprego da força de trabalho humana). Por que acelerar ativamente? Ah, todos sabemos: porque este tweet foi escrito por uma empresa, e todo o negócio dessa empresa está ativamente acelerando esse processo. É verdade que o "fatalismo" é um erro filosófico, e podemos refutá-lo filosoficamente. Se eu fosse refutá-lo, focaria em três pontos: O fatalismo pressupõe excessivamente a existência de um "mercado infinitamente fluido", onde, se você não fizer nada, alguém preencherá a lacuna imediatamente. Isso pode ser verdade em alguns setores. Mas a IA é justamente o oposto: é uma área onde a grande maioria do progresso é impulsionada por uma pequena minoria de indivíduos e empresas. Se ao menos um deles parar, as coisas desacelerarão significativamente. O fatalismo subestima o poder da tomada de decisões coletivas. Quando um indivíduo ou uma empresa toma uma decisão, muitas vezes serve de exemplo para os outros. Mesmo que ninguém siga o exemplo a curto prazo, isso pode semear a ideia para ações futuras. Posicionar-se contra algo pode até mesmo lembrar às pessoas que "assumir uma postura corajosa" por si só pode ser eficaz. O fatalismo simplifica demais as opções. A Mechanize poderia continuar buscando a automação completa da economia. Poderia também encerrar suas atividades. Mas também poderia se reorientar para focar na construção de formas de "automação parcial", capacitando aqueles que ainda estão envolvidos nos processos, maximizando o período em que a "colaboração humano-máquina" supera a "IA pura", ganhando assim mais tempo para uma transição segura para a superinteligência. Claro, existem outras opções que eu não considerei. No mundo real, porém, o fatalismo não pode ser derrotado pela lógica pura, pois não foi criado como um produto da lógica. Em nossa sociedade, o uso mais comum do fatalismo é permitir que as pessoas racionalizem suas ações (por outros motivos, geralmente a busca por poder político ou dinheiro) depois do ocorrido. Compreender esse fato em si é, muitas vezes, a melhor maneira de combatê-lo: quando os outros mais querem que você acredite que "tudo é irreversível" e o convencem a desistir, é justamente nesse momento que você tem mais poder de barganha. Longo prazo O "longo prazo" é uma mentalidade que enfatiza a importância de objetivos em um futuro distante. Hoje, muitas pessoas associam esse termo ao longo prazo do "altruísmo eficaz", como visto nesta introdução do site 80.000 Hours (uma organização de aconselhamento de carreira relacionada ao altruísmo eficaz): Se considerarmos apenas o potencial da população humana futura, esse número é impressionante. Supondo apenas 8 bilhões de pessoas em cada um dos próximos 500 milhões de anos, nossa população total chegaria a aproximadamente 400 trilhões... e, uma vez que não estivermos mais confinados à Terra, o potencial populacional com o qual devemos nos preocupar se torna verdadeiramente enorme. Mas o conceito de "apelar para o longo prazo" é muito mais antigo. Durante séculos, planejadores financeiros pessoais, economistas, filósofos, pessoas que discutem a melhor época para plantar árvores e muitos outros têm defendido que os sacrifícios feitos hoje sejam feitos em prol de um bem maior no futuro. O motivo pelo qual hesito em criticar o "longo prazo" é porque, bem, o futuro a longo prazo é de fato muito importante. Não faríamos um hard fork em uma blockchain só porque alguém foi enganado, pois, embora possa haver um benefício imediato claro, isso prejudicaria permanentemente a reputação da rede. Como argumenta Tyler Cowen em *Stubborn Attachments*, o crescimento econômico é tão importante porque é uma das poucas coisas que podem se multiplicar de forma confiável indefinidamente no futuro, sem desaparecer ou ficar presa em um ciclo. Eduque seus filhos sobre o fato de que as recompensas virão daqui a dez anos. Se você não abraçar o "longo prazo" de forma alguma, nunca construirá uma estrada. Você se depara com problemas quando não valoriza o longo prazo. Uma das principais questões às quais me oponho pessoalmente é a "dívida técnica" (compromissos que os desenvolvedores fazem para "pegar atalhos" que levam a trabalho extra no futuro): quando os desenvolvedores de software se concentram apenas em objetivos de curto prazo e não têm uma visão coerente de longo prazo, o resultado é um software que se torna cada vez mais feio e ruim com o tempo (veja: Meus esforços para simplificar a camada 1 do Ethereum). Mas há uma armadilha aqui: o argumento do "longo prazo" oferece pouca resistência à especulação desenfreada. Afinal, "longo prazo" é um conceito distante; podemos inventar todo tipo de história bonita, dizendo que se fizermos X, quase tudo de bom pode acontecer no futuro. No mundo real, quando observamos o comportamento dos mercados e da política, vemos repetidamente as desvantagens dessa abordagem. No mercado, a variável comum que distingue esses dois modelos é a "taxa de juros". Quando as taxas de juros estão altas, apenas projetos que podem gerar lucros claros a curto prazo valem o investimento. Mas quando as taxas de juros estão baixas — bem, o termo "ambiente de baixas taxas de juros" tornou-se um código bastante conhecido — ele descreve um cenário em que um grande número de pessoas cria e persegue "narrativas" irrealistas, levando a bolhas e colapsos. Na política, é comum a queixa de que os políticos adotam comportamentos míopes para agradar aos eleitores, escondendo os problemas debaixo do tapete até que ressurgam após a próxima eleição. Mas há outro problema: a "ponte para lugar nenhum" — um projeto de infraestrutura lançado com base no "valor a longo prazo", mas esse "valor" nunca se concretiza. Exemplos incluem uma "ponte para lugar nenhum" na Letônia, ou a Dentacoin — uma "solução blockchain para a indústria odontológica global" — que já teve uma capitalização de mercado superior a US$ 1,8 bilhão. O problema central em ambos os cenários é que pensar no futuro a longo prazo pode levar a uma desconexão com a realidade. Em um ambiente orientado para o curto prazo, embora se possa ignorar o longo prazo, existe pelo menos um mecanismo de feedback: se uma proposta alega benefícios a curto prazo, todos podem verificar se esses benefícios realmente se materializam no curto prazo. Em um ambiente orientado para o longo prazo, no entanto, um argumento sobre "benefícios a longo prazo" não precisa estar correto; basta que soe correto. Portanto, embora todos afirmem estar jogando o jogo de "escolher ideias com base em valores de longo prazo", na verdade estão jogando o jogo de "escolher ideias com base em quem vence em um ambiente social frequentemente dissonante e altamente conflituoso". Se você consegue justificar qualquer coisa com uma história de "consequências positivas vagas, mas enormes, a longo prazo", então essa história de "consequências positivas vagas, mas enormes, a longo prazo" não prova nada. Como podemos colher os benefícios do pensamento a longo prazo sem nos distanciarmos da realidade? Primeiro, eu diria que é realmente difícil. Mas, além disso, acredito que existam algumas regras básicas. A mais simples é: você tem um histórico sólido do que está fazendo em nome de "interesses de longo prazo" para comprovar que isso realmente traz esses benefícios? O crescimento econômico é assim. Prevenir a extinção de espécies é assim. Tentar estabelecer um "governo mundial único" não é — na verdade, como muitos outros exemplos, tem um "histórico sólido" de fracassos repetidos e danos massivos no processo. Se a ação que você está considerando tem "benefícios de longo prazo" especulativos, mas "danos de longo prazo conhecidos" e comprovados, então... não a faça. Essa regra nem sempre se aplica, porque às vezes realmente vivemos tempos sem precedentes. Mas é igualmente importante lembrar que a própria frase "realmente vivemos tempos sem precedentes" torna muito difícil resistir a ideias ousadas. Usar a "estética pessoal" como uma desculpa esfarrapada para proibir coisas. Acho ouriços-do-mar repugnantes. Você está comendo as gônadas de um ouriço-do-mar. Às vezes, no omakase (culinária japonesa sem cardápio), eles são até enfiados bem na minha cara. Mesmo assim, continuo contra a proibição; é uma questão de princípio. Um comportamento que detesto é quando alguém usa o poder coercitivo do governo para impor o que, em última análise, é apenas uma "preferência estética pessoal" à vida privada de milhões de outras pessoas. Ter senso estético é ótimo. Considerar a estética ao projetar espaços públicos também é bom. Mas impor seu senso estético à vida privada dos outros é inaceitável — o custo de impô-lo aos outros supera em muito os benefícios psicológicos, e se todos quisessem fazer isso, inevitavelmente levaria à hegemonia cultural, ou a uma "guerra política de todos contra todos". É fácil perceber que exemplos de políticos defendendo proibições com base em desculpas esfarrapadas como "Hum, eu acho isso repugnante" são praticamente inevitáveis. Uma rica fonte de exemplos são os diversos movimentos anti-gays. Por exemplo, Vitaly Mironov, um representante da Duma de São Petersburgo: Pessoas LGBT (referindo-se a gays, bissexuais e transgêneros) não têm direitos. Em nosso país, seus direitos não estão incluídos na lista de valores socialmente relevantes e protegidos. Esses supostos "pervertidos" possuem todos os direitos que têm como cidadãos do nosso país, mas não estão incluídos em uma "lista abrangente de alto nível". Nós os removeremos permanentemente da lista de questões de direitos humanos do nosso país. Até mesmo Vladimir Putin tentou justificar a invasão da Ucrânia reclamando que os Estados Unidos têm muito "satanismo". Um exemplo mais recente, embora ligeiramente diferente, é a campanha dos EUA para proibir a "carne sintética". "Carne cultivada" não é carne... é artificial. Carne de verdade é criada pelo próprio Deus... Se você realmente quer experimentar essa "pasta de proteína nitrogenada", vá para a Califórnia. Mas muitas outras pessoas adotam uma abordagem mais "civilizada", tentando disfarçar sua aversão com algum tipo de desculpa. Uma desculpa comum é a "estrutura moral da sociedade", a "estabilidade social" e razões semelhantes. Esses argumentos também são frequentemente usados para justificar a "censura". Qual é o problema? Deixarei que Scott Alexander (um blogueiro bastante conhecido que escreve artigos aprofundados sobre temas como racionalidade e IA) responda a essa pergunta: O "Princípio Flexível do Dano" refere-se à ideia de que os governos podem se indignar com danos complexos e indiretos — aqueles que "enfraquecem o tecido moral da sociedade" —, mas permitir que o "Princípio Flexível do Dano" exista equivale a reviver todas aquelas antigas guerras de "tentativa de controlar os outros" que o "liberalismo" deveria ter evitado. Uma pessoa diz: "O casamento entre pessoas do mesmo sexo levará a uma maior aceitação da homossexualidade, resultando em taxas mais altas de doenças sexualmente transmissíveis! Isso é prejudicial! Devemos proibir o casamento entre pessoas do mesmo sexo!" Outra pessoa diz: "Permitir que as pessoas enviem seus filhos para escolas particulares pode levar as crianças a disseminarem sentimentos anti-gays em escolas religiosas, fazendo com que essas crianças cometam crimes de ódio mais tarde na vida! Isso é prejudicial! Devemos proibir as escolas particulares!" E assim o ciclo continua indefinidamente. Uma "estrutura moral social" certamente existe — é óbvio que algumas sociedades são mais morais do que outras em muitos aspectos. Mas ela também é vaga e indefinida, o que a torna extremamente fácil de ser usada indevidamente; quase tudo pode ser rotulado como uma "violação da estrutura moral social". O mesmo se aplica ao apelo mais direto à "sabedoria da repugnância", que tem sido devastador para o progresso científico e médico. Aplica-se também às narrativas emergentes do tipo "eu simplesmente não gosto, então estou proibindo", um exemplo comum sendo a luta contra as "elites globais" e a defesa da "cultura local". Vamos analisar algumas das declarações feitas por aqueles que se opõem à carne sintética (lembrem-se, essas pessoas não estão explicando por que elas mesmas não comem carne sintética, mas sim por que querem forçar os outros a aceitarem sua escolha): A 'elite global' quer controlar nosso comportamento e forçar os americanos a aceitarem uma dieta de 'carne de petrato e minhocas'. A Flórida está dizendo 'não'. Tenho orgulho de ter sancionado a lei SB 1084, que impede a entrada de carne cultivada em laboratório na Flórida e prioriza a proteção de nossos agricultores e pecuaristas, e não a agenda da elite e do Fórum Econômico Mundial. Algumas pessoas podem gostar de comer insetos com Bill Gates, mas eu não. Essa é uma das principais razões pelas quais simpatizo bastante com o libertarianismo moderado (uma filosofia política que enfatiza a liberdade individual e um governo limitado). Gostaria de viver em uma sociedade onde a proibição de algo exigisse uma justificativa clara do dano ou risco evidente que representa para uma vítima específica, e se essa justificativa fosse contestada com sucesso em um tribunal, a lei deveria ser revogada. Isso reduz significativamente a probabilidade de o governo ser cooptado por grupos de interesse e usado para impor preferências culturais à vida pessoal de outros, ou para travar uma guerra de todos contra todos. Defendendo o "financiamento inferior" No mundo das criptomoedas, é comum ouvir argumentos falaciosos tentando persuadir você a investir em diversos projetos de alto risco. Às vezes, soam "brilhantes", como a ideia de que um projeto "disrompa" (ou seja, participe de) um setor bilionário, ou como esse projeto em particular é único, fazendo algo que ninguém mais fez. Outras vezes, é simplesmente "o preço vai subir por causa do apoio de celebridades". Não me oponho a que as pessoas "se divirtam", incluindo arriscar parte do seu dinheiro. O que me incomoda é que as pessoas sejam incentivadas a investir metade do seu patrimônio líquido em um token que "influenciadores dizem que com certeza vai valorizar", quando o resultado mais realista é que o token não valerá nada daqui a dois anos. Mas o que me incomoda ainda mais é o argumento de que esses jogos especulativos com tokens são "moralmente corretos" porque os pobres precisam desse tipo de retorno rápido de 10 vezes o valor investido para terem uma chance justa na economia moderna. Como este argumento: Para alguém com um patrimônio líquido de US$ 5.000, "vá com calma, invista em fundos de índice" é um conselho péssimo. O que essa pessoa precisa é de mobilidade ascendente. Ela precisa assumir apostas de alto risco e alto retorno. As criptomoedas (memecoins) são o único lugar nos tempos modernos que oferece essa oportunidade. Esse argumento é péssimo. Uma maneira de refutá-lo é desconstruir e descartar a afirmação de que "essa é uma forma significativa ou benéfica de mobilidade social", assim como qualquer outro argumento. A questão central desse argumento é que os cassinos são um jogo de soma zero. Grosso modo, para cada pessoa que ascende socialmente por meio desse jogo, outra pessoa desce de classe social. Mas, se você se aprofundar na matemática, a situação fica ainda pior. Um dos primeiros conceitos que você aprenderá em qualquer livro didático padrão de economia do bem-estar é que a "função de utilidade" de uma pessoa em relação ao dinheiro é côncava (o texto original usa erroneamente convexa, mas, pelo diagrama e contexto, o autor se refere claramente a uma "função côncava", ou seja, "utilidade marginal decrescente". Vamos traduzir literalmente). Quanto mais rico você for, menos "utilidade" (satisfação) você obterá de cada dólar adicional. Observe que quanto mais dinheiro você tem (eixo horizontal), menor é a inclinação da curva (o valor de cada dólar). Este modelo chega a uma conclusão importante: o lançamento de moedas (apostas), especialmente as de alto risco, é, em média, prejudicial. A dor de perder US$ 100.000 é maior do que o prazer de ganhar US$ 100.000. Se criarmos um modelo em que você tenha atualmente US$ 200.000 e cada duplicação do seu patrimônio (ou seja, um aumento de 100% ou uma diminuição de 50%) o faça subir ou descer uma classe social, então, se você ganhar uma aposta de US$ 100.000 (seu patrimônio passa a ser de US$ 300.000), você sobe aproximadamente meia classe social; mas se perder a aposta (seu patrimônio passa a ser de US$ 100.000), você cai uma classe social inteira. Modelos econômicos construídos por acadêmicos que realmente estudam a tomada de decisões humanas e buscam melhorar a vida das pessoas quase sempre chegam a essa conclusão. Então, que tipo de modelo econômico chegaria à conclusão oposta — que você deveria investir tudo para buscar um retorno de 10 vezes o investimento? A resposta é: histórias inventadas por pessoas cujo objetivo é encontrar uma boa história para as criptomoedas sobre as quais estão especulando. Meu objetivo aqui não é culpar aqueles que são verdadeiramente pobres e desesperados, buscando uma saída. Em vez disso, meu objetivo é culpar aqueles que são financeiramente abastados, que usam o pretexto de que "os pobres e desesperados realmente precisam disso 10 vezes mais" para justificar suas ações de "armadilhar para atrair os pobres para problemas ainda maiores". Isso explica em grande parte por que tenho insistido para que o ecossistema Ethereum se concentre em "DeFi de baixo risco" (DeFi, Finanças Descentralizadas). Permitir que pessoas no Terceiro Mundo escapem do colapso político de suas moedas e tenham acesso a taxas de juros (estáveis) no Primeiro Mundo é algo notável; pode ajudar milagrosamente pessoas a ascenderem socialmente sem empurrar outras para o abismo. Recentemente, alguém me perguntou: por que não dizer "DeFi bom" em vez de "DeFi de baixo risco"? Afinal, nem todo DeFi de alto risco é ruim, e nem todo DeFi de baixo risco é bom. Minha resposta é: se nos concentrarmos em "DeFi bom", qualquer pessoa pode facilmente "pensar fora da caixa" e argumentar que qualquer tipo específico de DeFi é "bom". Mas se você disser "DeFi de baixo risco", é uma categoria vinculativa — é muito difícil "pensar fora da caixa" e chamar de "baixo risco" uma atividade que claramente leva pessoas à falência da noite para o dia. Eu certamente não sou contra a existência de DeFi de alto risco — afinal, sou fã de mercados de previsão (plataformas onde você aposta no resultado de eventos futuros). Mas um ecossistema mais saudável seria aquele onde o DeFi de baixo risco fosse o prato principal e o DeFi de alto risco fosse um acompanhamento — algo divertido e experimental, não algo que permita apostar metade das suas economias. A pergunta final: será que a visão de que "os mercados de previsão não são apenas jogos de azar; eles beneficiam a sociedade ao melhorar o acesso a informações precisas" é apenas uma racionalização extremamente imaginativa e baseada na retrospectiva? Alguns certamente pensam que sim: "Os mercados de previsão nada mais são do que astrologia praticada por homens com formação universitária que usam termos como 'valor cognitivo' e 'utilidade social' para encobrir o fato de que estão apenas jogando." Permita-me defender-me. A razão pela qual você pode julgar isso como não sendo uma "racionalização posterior" é porque a tradição acadêmica de apreciar mercados de previsão e tentar torná-los realidade existe há trinta anos — muito mais tempo do que a possibilidade de alguém fazer fortuna com eles (seja criando um projeto ou participando dele). Essa "tradição acadêmica preexistente" é algo que as memecoins ou mesmo exemplos mais marginais, como tokens pessoais, não possuem. No entanto, repito, mercados de previsão não são DeFi de baixo risco, portanto, são complementos, não algo que permita que você aposte metade do seu patrimônio líquido. maximização de potência Dentro do círculo do "Altruísmo Eficaz" (AE) relacionado à Inteligência Artificial, existem muitos indivíduos poderosos que, se você perguntar a eles, dirão explicitamente que sua estratégia é acumular o máximo de poder possível. Seu objetivo é ocupar posições vantajosas para que, quando um "momento crucial" chegar, eles possam intervir com toda a força e recursos massivos e "fazer a coisa certa". A "maximização do poder" é a estratégia definitiva, a mais impressionante. O argumento "Dê-me poder para que eu possa fazer X" é igualmente persuasivo, independentemente do que X seja. Antes desse "momento crítico" (na teoria do apocalipse da IA, isso se refere ao momento antes de alcançarmos a utopia ou de toda a humanidade morrer e se tornar meros clipes de papel), suas ações por razões "altruístas" são exatamente iguais às suas ações por "ganância e autoengrandecimento". Portanto, qualquer pessoa que busque o segundo objetivo pode lhe dizer, sem custo algum, que está se esforçando para alcançar o primeiro e convencê-lo de que é uma boa pessoa. De uma perspectiva externa (um método para corrigir vieses cognitivos que enfatiza a análise de dados estatísticos de situações semelhantes em vez de se basear em sentimentos subjetivos), esse argumento é claramente absurdo: todos acreditam ser mais morais do que os outros, então é fácil perceber que, mesmo que todos acreditem que maximizar seu poder seja um ganho líquido, na verdade não é. Mas de uma perspectiva interna, se você olhar ao redor e vir o ódio nas redes sociais, a corrupção política, os ataques cibernéticos e as ações desenfreadas de outras empresas de IA, a ideia de "Eu sou o mocinho, devo ignorar este mundo exterior corrupto e resolver os problemas sozinho" certamente parece atraente. E é exatamente por isso que adotar uma perspectiva externa é saudável. Alternativamente, você pode adotar uma perspectiva interna diferente, mais humilde. Aqui está um argumento interessante do fórum "Altruísmo Eficaz": Sem dúvida, a maior vantagem do investimento reside na sua capacidade de multiplicar exponencialmente os recursos financeiros que podem ser posteriormente utilizados para filantropia. Desde a sua criação, em 1926, o índice S&P 500 alcançou um retorno anualizado, ajustado pela inflação, de aproximadamente 7%... O risco de "desvio de valores" é mais difícil de estimar, mas é um fator significativo. Por exemplo, as fontes indicam consistentemente que a taxa média anual de "desvio de valores" entre indivíduos em uma comunidade altruísta eficaz é de aproximadamente 10%. Em outras palavras, embora sua riqueza possa de fato crescer 7% ao ano, dados empíricos também sugerem que, se você acredita em uma causa hoje, sua crença nela pode diminuir em cerca de 10% amanhã. Isso está de acordo com uma observação de Tanner Greer: intelectuais públicos geralmente têm uma "validade" de cerca de 10 a 15 anos, após a qual suas ideias não são mais melhores do que o ruído de fundo ao seu redor (quanto à importância do fato de eu ter começado a publicar meus textos em 2011, deixo isso para o leitor julgar). Portanto, se você acumular riqueza com o objetivo de 'agir mais tarde', seu eu futuro poderá muito bem usar essa riqueza extra para fazer coisas que você mesmo agora nem apoiaria. "Posso fazer mais internamente" No campo da segurança da IA, um problema recorrente é uma mistura de "maximização de poder" e "fatalismo": a crença de que a melhor maneira de avançar na segurança da IA é unir-se a empresas que estão acelerando a implementação de IA superinteligente e tentar melhorá-las "por dentro". Aqui, frequentemente encontramos justificativas como: “Estou muito decepcionado com a OpenAI. Eles precisam de mais funcionários preocupados com a segurança, como eu. Anuncio que me juntarei a eles para promover mudanças internas.” De uma perspectiva interna, isso parece razoável. No entanto, de uma perspectiva externa, você essencialmente se torna assim: Personagem A: "Este lugar é terrível." Personagem B: "Então por que você ainda não foi embora?" Personagem A: "Tenho que ficar e garantir que a situação piore." Outro bom exemplo dessa linha de pensamento é o sistema político da Rússia moderna. Aqui, gostaria de citar este artigo do Financial Times: Em 24 de fevereiro, três dias após o reconhecimento da existência dos separatistas de Donbas por Putin, ele lançou uma ofensiva em grande escala contra a Ucrânia, superando as piores expectativas. Assim como o resto do mundo, a Ucrânia só descobriu as verdadeiras intenções de Putin pela televisão. A recusa de Putin em acatar os alertas dos tecnocratas representou um duro golpe para o país. Um ex-executivo que conheceu Gref (CEO do Sberbank) no início da guerra disse: "Nunca o vi assim. Ele estava completamente arrasado, em estado de choque. '...' Todos achavam que era um desastre, e ele pensava assim mais do que qualquer outra pessoa. ... No círculo restrito da elite política russa, tecnocratas como Gref e Nabiullina (governadores do Banco Central da Rússia), antes considerados forças modernistas e reformistas para contrabalançar os 'siloviki' de Putin (os altos funcionários do aparato de segurança linha-dura), recuaram diante de uma oportunidade histórica de defender suas convicções em mercados abertos e se opor publicamente à guerra." Segundo ex-funcionários, esses tecnocratas, em vez de romperem com Putin, consolidaram seu papel como "facilitadores", usando sua experiência e ferramentas para mitigar o impacto das sanções ocidentais e manter a economia russa em tempos de guerra. Da mesma forma, o problema reside na frase "Eu posso fazer mais internamente", e a capacidade de resistir a "pensar fora da caixa" é incrivelmente baixa. É sempre fácil dizer "Eu posso fazer mais internamente", independentemente do que você realmente faça. Assim, você acaba sendo apenas uma engrenagem na máquina, desempenhando o mesmo papel que as engrenagens ao seu lado — aqueles que trabalham para sustentar suas famílias em mansões e jantares caros todos os dias — só que suas razões soam melhor. Então, como evitar "pensar fora da caixa"? Você pode fazer muitas coisas diferentes, mas vou me concentrar em duas: Aderir aos princípios Estabeleça uma linha clara para o que você 'não quer fazer' — não matar pessoas inocentes, não roubar, não trapacear, respeitar a liberdade pessoal dos outros — e defina um limite muito alto para quaisquer exceções. Os filósofos costumam chamar isso de "ética deontológica" (que enfatiza obrigações e regras, em vez de resultados). A deontologia confunde muita gente — naturalmente, se existe uma razão fundamental por trás das suas regras, não deveríamos buscar essa razão diretamente? Se "não roubar" é uma regra porque roubar geralmente prejudica mais a vítima do que beneficia você, então você deveria seguir a regra de "não fazer coisas que causam mais mal do que bem". Mas se, às vezes, roubar é "mais benéfico do que prejudicial" — então roube! O problema dessa abordagem consequencialista (focada apenas nos resultados, não no processo) é que ela não tem absolutamente nenhuma capacidade de resistir ao pensamento extremamente imaginativo. Nossos cérebros são muito bons em fabricar razões para argumentar que "nesta situação específica, o que você (por outros motivos) há muito deseja fazer acaba sendo de grande benefício para toda a humanidade". A deontologia, por outro lado, diria: Não, você não pode fazer isso. Uma forma de deontologia é o utilitarismo de regras: as regras são escolhidas com base no que traz o maior benefício, mas quando se trata de escolher ações específicas, você simplesmente segue as regras que já escolheu. "Agarre" o "fardo" certo. Outro tema comum mencionado acima é que seu comportamento é frequentemente determinado por seus "incentivos" — no jargão das criptomoedas, os "ativos" que você possui (referindo-se aos ativos ou posições que você detém e que, por sua vez, influenciam suas opiniões e ações). Essa pressão é difícil de resistir. A maneira mais simples de evitá-la é evitar criar incentivos ruins para si mesmo. Outro corolário é evitar se apegar à bagagem social errada: os círculos sociais aos quais você pertence. Você não pode tentar se livrar de qualquer bagagem social — fazer isso vai contra nossos instintos humanos mais básicos. Mas, no mínimo, você pode diversificá-las. O passo mais simples para isso é escolher sua localização geográfica com sabedoria. Isso me lembra da minha sugestão pessoal sobre o tema já bastante explorado de 'como contribuir para a segurança da IA': - Não trabalhe para uma empresa que esteja acelerando o desenvolvimento de recursos de "IA de ponta e totalmente autônoma". - Não more na região da Baía de São Francisco.

