Resistindo à armadilha mental das ideias "impressionantes" Um critério crucial para avaliar a qualidade de uma forma de pensar ou argumentar é o que eu chamo de capacidade de resistir à resistência da mente genial (um meme frequentemente usado para satirizar aquelas "pessoas inteligentes" que complicam demais problemas simples ou encontram teorias aparentemente sofisticadas para sustentar pontos de vista falhos): Quão difícil é ser manipulado? Você pode usá-lo para "justificar" algo que você (já quer fazer por outros motivos)? Esse espírito é semelhante à falseabilidade na ciência (uma teoria precisa poder ser comprovada como errada para ser considerada uma teoria científica): se o seu argumento pode provar tudo, então ele não pode provar nada. Você deve parar na etapa dois. Para entender por que 'resistir à imaginação desenfreada' é importante, a maneira mais simples é observar o que acontece quando ela está ausente. Você provavelmente já ouviu muitas afirmações semelhantes: Estamos construindo um mercado descentralizado completamente novo que revolucionará a forma como os clientes interagem com seus fornecedores e permitirá que os criadores transformem seu público em nações digitais. Na arena política, a situação pode ser muito pior. Por exemplo: [Um certo grupo minoritário] é responsável por grande parte da desordem social atual; eles esgotaram nossos recursos. Se pudéssemos erradicá-los completamente (e digo 'completamente', para que jamais retornem), embora fosse uma ação brutal e isolada, a longo prazo, se isso pudesse aumentar nossa taxa de crescimento econômico em 0,5%, então, daqui a 500 anos, nosso país seria 12 vezes mais rico do que era naquela época. Isso resultaria em inúmeras vidas mais felizes e plenas. Seria uma grave injustiça permitir que nossos descendentes vivessem em extrema pobreza simplesmente porque somos covardes e temos medo de pagar esse preço único hoje. Para refutar os argumentos acima, uma abordagem seria tratá-los como problemas de matemática em uma aula de filosofia: identificar as premissas ou etapas específicas com as quais você discorda e, em seguida, refutá-las. No entanto, uma abordagem mais realista é perceber que, no mundo real, esses argumentos quase nunca são "raciocínio" — são "racionalização" (ou seja, uma conclusão é apresentada primeiro, seguida pelo raciocínio que a justifica). Essas pessoas já haviam chegado a uma conclusão, provavelmente motivadas por interesse próprio ou emoção (como acumular o token para si mesmas ou nutrir um ódio genuíno por aquele grupo minoritário), e então fabricaram esses argumentos rebuscados para justificar sua posição. O objetivo desses argumentos rebuscados é: (i) enganar o próprio "pensamento superior" do orador, levando-o a ceder aos "instintos primitivos"; e (ii) tentar fortalecer seu movimento recrutando não apenas os enganados, mas também aqueles que se consideram inteligentes (ou pior, os verdadeiramente inteligentes). Neste artigo, argumentarei que uma fraca capacidade de resistir ao pensamento imaginativo é um fenômeno generalizado, com consequências que variam de leves a graves. Apresentarei também alguns padrões de pensamento eficazes que resistem ao pensamento imaginativo e defenderei seu uso. Esses padrões de pensamento que são fracos em "resistir ao pensamento criativo" Inevitabilismo Veja este tweet recente; é um excelente exemplo, que ilustra perfeitamente a retórica da "defesa" da IA no Vale do Silício: "O desemprego em massa resultante da automação é inevitável. É uma lei econômica natural incontornável. Nossa empresa (Mechanize Inc.) visa acelerar esse processo e garantir uma transição tranquila, em vez de resistir a ele inutilmente. Junte-se a nós na construção do futuro." Este é um exemplo clássico da falácia da inevitabilidade. A publicação começa com uma afirmação (talvez razoável): a automação completa da economia inevitavelmente acontecerá eventualmente. Em seguida, salta diretamente para a conclusão: devemos acelerar ativamente esse dia (e o consequente desemprego da força de trabalho humana). Por que acelerar ativamente? Ah, todos sabemos: porque este tweet foi escrito por uma empresa, e todo o negócio dessa empresa está ativamente acelerando esse processo. É verdade que o "fatalismo" é um erro filosófico, e podemos refutá-lo filosoficamente. Se eu fosse refutá-lo, focaria em três pontos: O fatalismo pressupõe excessivamente a existência de um "mercado infinitamente fluido", onde, se você não fizer nada, alguém preencherá a lacuna imediatamente. Isso pode ser verdade em alguns setores. Mas a IA é justamente o oposto: é uma área onde a grande maioria do progresso é impulsionada por uma pequena minoria de indivíduos e empresas. Se ao menos um deles parar, as coisas desacelerarão significativamente. O fatalismo subestima o poder da tomada de decisões coletivas. Quando um indivíduo ou uma empresa toma uma decisão, muitas vezes serve de exemplo para os outros. Mesmo que ninguém siga o exemplo a curto prazo, isso pode semear a ideia para ações futuras. Posicionar-se contra algo pode até mesmo lembrar às pessoas que "assumir uma postura corajosa" por si só pode ser eficaz. O fatalismo simplifica demais as opções. A Mechanize poderia continuar buscando a automação completa da economia. Poderia também encerrar suas atividades. Mas também poderia se reorientar para focar na construção de formas de "automação parcial", capacitando aqueles que ainda estão envolvidos nos processos, maximizando o período em que a "colaboração humano-máquina" supera a "IA pura", ganhando assim mais tempo para uma transição segura para a superinteligência. Claro, existem outras opções que eu não considerei. No mundo real, porém, o fatalismo não pode ser derrotado pela lógica pura, pois não foi criado como um produto da lógica. Em nossa sociedade, o uso mais comum do fatalismo é permitir que as pessoas racionalizem suas ações (por outros motivos, geralmente a busca por poder político ou dinheiro) depois do ocorrido. Compreender esse fato em si é, muitas vezes, a melhor maneira de combatê-lo: quando os outros mais querem que você acredite que "tudo é irreversível" e o convencem a desistir, é justamente nesse momento que você tem mais poder de barganha. Longo prazo O "longo prazo" é uma mentalidade que enfatiza a importância de objetivos em um futuro distante. Hoje, muitas pessoas associam esse termo ao longo prazo do "altruísmo eficaz", como visto nesta introdução do site 80.000 Hours (uma organização de aconselhamento de carreira relacionada ao altruísmo eficaz): Se considerarmos apenas o potencial da população humana futura, esse número é impressionante. Supondo apenas 8 bilhões de pessoas em cada um dos próximos 500 milhões de anos, nossa população total chegaria a aproximadamente 400 trilhões... e, uma vez que não estivermos mais confinados à Terra, o potencial populacional com o qual devemos nos preocupar se torna verdadeiramente enorme. Mas o conceito de "apelar para o longo prazo" é muito mais antigo. Durante séculos, planejadores financeiros pessoais, economistas, filósofos, pessoas que discutem a melhor época para plantar árvores e muitos outros têm defendido que os sacrifícios feitos hoje sejam feitos em prol de um bem maior no futuro. O motivo pelo qual hesito em criticar o "longo prazo" é porque, bem, o futuro a longo prazo é de fato muito importante. Não faríamos um hard fork em uma blockchain só porque alguém foi enganado, pois, embora possa haver um benefício imediato claro, isso prejudicaria permanentemente a reputação da rede. Como argumenta Tyler Cowen em *Stubborn Attachments*, o crescimento econômico é tão importante porque é uma das poucas coisas que podem se multiplicar de forma confiável indefinidamente no futuro, sem desaparecer ou ficar presa em um ciclo. Eduque seus filhos sobre o fato de que as recompensas virão daqui a dez anos. Se você não abraçar o "longo prazo" de forma alguma, nunca construirá uma estrada. Você se depara com problemas quando não valoriza o longo prazo. Uma das principais questões às quais me oponho pessoalmente é a "dívida técnica" (compromissos que os desenvolvedores fazem para "pegar atalhos" que levam a trabalho extra no futuro): quando os desenvolvedores de software se concentram apenas em objetivos de curto prazo e não têm uma visão coerente de longo prazo, o resultado é um software que se torna cada vez mais feio e ruim com o tempo (veja: Meus esforços para simplificar a camada 1 do Ethereum). Mas há uma armadilha aqui: o argumento do "longo prazo" oferece pouca resistência à especulação desenfreada. Afinal, "longo prazo" é um conceito distante; podemos inventar todo tipo de história bonita, dizendo que se fizermos X, quase tudo de bom pode acontecer no futuro. No mundo real, quando observamos o comportamento dos mercados e da política, vemos repetidamente as desvantagens dessa abordagem. No mercado, a variável comum que distingue esses dois modelos é a "taxa de juros". Quando as taxas de juros estão altas, apenas projetos que podem gerar lucros claros a curto prazo valem o investimento. Mas quando as taxas de juros estão baixas — bem, o termo "ambiente de baixas taxas de juros" tornou-se um código bastante conhecido — ele descreve um cenário em que um grande número de pessoas cria e persegue "narrativas" irrealistas, levando a bolhas e colapsos. Na política, é comum a queixa de que os políticos adotam comportamentos míopes para agradar aos eleitores, escondendo os problemas debaixo do tapete até que ressurgam após a próxima eleição. Mas há outro problema: a "ponte para lugar nenhum" — um projeto de infraestrutura lançado com base no "valor a longo prazo", mas esse "valor" nunca se concretiza. Exemplos incluem uma "ponte para lugar nenhum" na Letônia, ou a Dentacoin — uma "solução blockchain para a indústria odontológica global" — que já teve uma capitalização de mercado superior a US$ 1,8 bilhão. O problema central em ambos os cenários é que pensar no futuro a longo prazo pode levar a uma desconexão com a realidade. Em um ambiente orientado para o curto prazo, embora se possa ignorar o longo prazo, existe pelo menos um mecanismo de feedback: se uma proposta alega benefícios a curto prazo, todos podem verificar se esses benefícios realmente se materializam no curto prazo. Em um ambiente orientado para o longo prazo, no entanto, um argumento sobre "benefícios a longo prazo" não precisa estar correto; basta que soe correto. Portanto, embora todos afirmem estar jogando o jogo de "escolher ideias com base em valores de longo prazo", na verdade estão jogando o jogo de "escolher ideias com base em quem vence em um ambiente social frequentemente dissonante e altamente conflituoso". Se você consegue justificar qualquer coisa com uma história de "consequências positivas vagas, mas enormes, a longo prazo", então essa história de "consequências positivas vagas, mas enormes, a longo prazo" não prova nada. Como podemos colher os benefícios do pensamento a longo prazo sem nos distanciarmos da realidade? Primeiro, eu diria que é realmente difícil. Mas, além disso, acredito que existam algumas regras básicas. A mais simples é: você tem um histórico sólido do que está fazendo em nome de "interesses de longo prazo" para comprovar que isso realmente traz esses benefícios? O crescimento econômico é assim. Prevenir a extinção de espécies é assim. Tentar estabelecer um "governo mundial único" não é — na verdade, como muitos outros exemplos, tem um "histórico sólido" de fracassos repetidos e danos massivos no processo. Se a ação que você está considerando tem "benefícios de longo prazo" especulativos, mas "danos de longo prazo conhecidos" e comprovados, então... não a faça. Essa regra nem sempre se aplica, porque às vezes realmente vivemos tempos sem precedentes. Mas é igualmente importante lembrar que a própria frase "realmente vivemos tempos sem precedentes" torna muito difícil resistir a ideias ousadas. Usar a "estética pessoal" como uma desculpa esfarrapada para proibir coisas. Acho ouriços-do-mar repugnantes. Você está comendo as gônadas de um ouriço-do-mar. Às vezes, no omakase (culinária japonesa sem cardápio), eles são até enfiados bem na minha cara. Mesmo assim, continuo contra a proibição; é uma questão de princípio. Um comportamento que detesto é quando alguém usa o poder coercitivo do governo para impor o que, em última análise, é apenas uma "preferência estética pessoal" à vida privada de milhões de outras pessoas. Ter senso estético é ótimo. Considerar a estética ao projetar espaços públicos também é bom. Mas impor seu senso estético à vida privada dos outros é inaceitável — o custo de impô-lo aos outros supera em muito os benefícios psicológicos, e se todos quisessem fazer isso, inevitavelmente levaria à hegemonia cultural, ou a uma "guerra política de todos contra todos". É fácil perceber que exemplos de políticos defendendo proibições com base em desculpas esfarrapadas como "Hum, eu acho isso repugnante" são praticamente inevitáveis. Uma rica fonte de exemplos são os diversos movimentos anti-gays. Por exemplo, Vitaly Mironov, um representante da Duma de São Petersburgo: Pessoas LGBT (referindo-se a gays, bissexuais e transgêneros) não têm direitos. Em nosso país, seus direitos não estão incluídos na lista de valores socialmente relevantes e protegidos. Esses supostos "pervertidos" possuem todos os direitos que têm como cidadãos do nosso país, mas não estão incluídos em uma "lista abrangente de alto nível". Nós os removeremos permanentemente da lista de questões de direitos humanos do nosso país. Até mesmo Vladimir Putin tentou justificar a invasão da Ucrânia reclamando que os Estados Unidos têm muito "satanismo". Um exemplo mais recente, embora ligeiramente diferente, é a campanha dos EUA para proibir a "carne sintética". "Carne cultivada" não é carne... é artificial. Carne de verdade é criada pelo próprio Deus... Se você realmente quer experimentar essa "pasta de proteína nitrogenada", vá para a Califórnia. Mas muitas outras pessoas adotam uma abordagem mais "civilizada", tentando disfarçar sua aversão com algum tipo de desculpa. Uma desculpa comum é a "estrutura moral da sociedade", a "estabilidade social" e razões semelhantes. Esses argumentos também são frequentemente usados para justificar a "censura". Qual é o problema? Deixarei que Scott Alexander (um blogueiro bastante conhecido que escreve artigos aprofundados sobre temas como racionalidade e IA) responda a essa pergunta: O "Princípio Flexível do Dano" refere-se à ideia de que os governos podem se indignar com danos complexos e indiretos — aqueles que "enfraquecem o tecido moral da sociedade" —, mas permitir que o "Princípio Flexível do Dano" exista equivale a reviver todas aquelas antigas guerras de "tentativa de controlar os outros" que o "liberalismo" deveria ter evitado. Uma pessoa diz: "O casamento entre pessoas do mesmo sexo levará a uma maior aceitação da homossexualidade, resultando em taxas mais altas de doenças sexualmente transmissíveis! Isso é prejudicial! Devemos proibir o casamento entre pessoas do mesmo sexo!" Outra pessoa diz: "Permitir que as pessoas enviem seus filhos para escolas particulares pode levar as crianças a disseminarem sentimentos anti-gays em escolas religiosas, fazendo com que essas crianças cometam crimes de ódio mais tarde na vida! Isso é prejudicial! Devemos proibir as escolas particulares!" E assim o ciclo continua indefinidamente. Uma "estrutura moral social" certamente existe — é óbvio que algumas sociedades são mais morais do que outras em muitos aspectos. Mas ela também é vaga e indefinida, o que a torna extremamente fácil de ser usada indevidamente; quase tudo pode ser rotulado como uma "violação da estrutura moral social". O mesmo se aplica ao apelo mais direto à "sabedoria da repugnância", que tem sido devastador para o progresso científico e médico. Aplica-se também às narrativas emergentes do tipo "eu simplesmente não gosto, então estou proibindo", um exemplo comum sendo a luta contra as "elites globais" e a defesa da "cultura local". Vamos analisar algumas das declarações feitas por aqueles que se opõem à carne sintética (lembrem-se, essas pessoas não estão explicando por que elas mesmas não comem carne sintética, mas sim por que querem forçar os outros a aceitarem sua escolha): A 'elite global' quer controlar nosso comportamento e forçar os americanos a aceitarem uma dieta de 'carne de petrato e minhocas'. A Flórida está dizendo 'não'. Tenho orgulho de ter sancionado a lei SB 1084, que impede a entrada de carne cultivada em laboratório na Flórida e prioriza a proteção de nossos agricultores e pecuaristas, e não a agenda da elite e do Fórum Econômico Mundial. Algumas pessoas podem gostar de comer insetos com Bill Gates, mas eu não. Essa é uma das principais razões pelas quais simpatizo bastante com o libertarianismo moderado (uma filosofia política que enfatiza a liberdade individual e um governo limitado). Gostaria de viver em uma sociedade onde a proibição de algo exigisse uma justificativa clara do dano ou risco evidente que representa para uma vítima específica, e se essa justificativa fosse contestada com sucesso em um tribunal, a lei deveria ser revogada. Isso reduz significativamente a probabilidade de o governo ser cooptado por grupos de interesse e usado para impor preferências culturais à vida pessoal de outros, ou para travar uma guerra de todos contra todos. Defendendo o "financiamento inferior" No mundo das criptomoedas, é comum ouvir argumentos falaciosos tentando persuadir você a investir em diversos projetos de alto risco. Às vezes, soam "brilhantes", como a ideia de que um projeto "disrompa" (ou seja, participe de) um setor bilionário, ou como esse projeto em particular é único, fazendo algo que ninguém mais fez. Outras vezes, é simplesmente "o preço vai subir por causa do apoio de celebridades". Não me oponho a que as pessoas "se divirtam", incluindo arriscar parte do seu dinheiro. O que me incomoda é que as pessoas sejam incentivadas a investir metade do seu patrimônio líquido em um token que "influenciadores dizem que com certeza vai valorizar", quando o resultado mais realista é que o token não valerá nada daqui a dois anos. Mas o que me incomoda ainda mais é o argumento de que esses jogos especulativos com tokens são "moralmente corretos" porque os pobres precisam desse tipo de retorno rápido de 10 vezes o valor investido para terem uma chance justa na economia moderna. Como este argumento: Para alguém com um patrimônio líquido de US$ 5.000, "vá com calma, invista em fundos de índice" é um conselho péssimo. O que essa pessoa precisa é de mobilidade ascendente. Ela precisa assumir apostas de alto risco e alto retorno. As criptomoedas (memecoins) são o único lugar nos tempos modernos que oferece essa oportunidade. Esse argumento é péssimo. Uma maneira de refutá-lo é desconstruir e descartar a afirmação de que "essa é uma forma significativa ou benéfica de mobilidade social", assim como qualquer outro argumento. A questão central desse argumento é que os cassinos são um jogo de soma zero. Grosso modo, para cada pessoa que ascende socialmente por meio desse jogo, outra pessoa desce de classe social. Mas, se você se aprofundar na matemática, a situação fica ainda pior. Um dos primeiros conceitos que você aprenderá em qualquer livro didático padrão de economia do bem-estar é que a "função de utilidade" de uma pessoa em relação ao dinheiro é côncava (o texto original usa erroneamente convexa, mas, pelo diagrama e contexto, o autor se refere claramente a uma "função côncava", ou seja, "utilidade marginal decrescente". Vamos traduzir literalmente). Quanto mais rico você for, menos "utilidade" (satisfação) você obterá de cada dólar adicional. Observe que quanto mais dinheiro você tem (eixo horizontal), menor é a inclinação da curva (o valor de cada dólar). Este modelo chega a uma conclusão importante: o lançamento de moedas (apostas), especialmente as de alto risco, é, em média, prejudicial. A dor de perder US$ 100.000 é maior do que o prazer de ganhar US$ 100.000. Se criarmos um modelo em que você tenha atualmente US$ 200.000 e cada duplicação do seu patrimônio (ou seja, um aumento de 100% ou uma diminuição de 50%) o faça subir ou descer uma classe social, então, se você ganhar uma aposta de US$ 100.000 (seu patrimônio passa a ser de US$ 300.000), você sobe aproximadamente meia classe social; mas se perder a aposta (seu patrimônio passa a ser de US$ 100.000), você cai uma classe social inteira. Modelos econômicos construídos por acadêmicos que realmente estudam a tomada de decisões humanas e buscam melhorar a vida das pessoas quase sempre chegam a essa conclusão. Então, que tipo de modelo econômico chegaria à conclusão oposta — que você deveria investir tudo para buscar um retorno de 10 vezes o investimento? A resposta é: histórias inventadas por pessoas cujo objetivo é encontrar uma boa história para as criptomoedas sobre as quais estão especulando. Meu objetivo aqui não é culpar aqueles que são verdadeiramente pobres e desesperados, buscando uma saída. Em vez disso, meu objetivo é culpar aqueles que são financeiramente abastados, que usam o pretexto de que "os pobres e desesperados realmente precisam disso 10 vezes mais" para justificar suas ações de "armadilhar para atrair os pobres para problemas ainda maiores". Isso explica em grande parte por que tenho insistido para que o ecossistema Ethereum se concentre em "DeFi de baixo risco" (DeFi, Finanças Descentralizadas). Permitir que pessoas no Terceiro Mundo escapem do colapso político de suas moedas e tenham acesso a taxas de juros (estáveis) no Primeiro Mundo é algo notável; pode ajudar milagrosamente pessoas a ascenderem socialmente sem empurrar outras para o abismo. Recentemente, alguém me perguntou: por que não dizer "DeFi bom" em vez de "DeFi de baixo risco"? Afinal, nem todo DeFi de alto risco é ruim, e nem todo DeFi de baixo risco é bom. Minha resposta é: se nos concentrarmos em "DeFi bom", qualquer pessoa pode facilmente "pensar fora da caixa" e argumentar que qualquer tipo específico de DeFi é "bom". Mas se você disser "DeFi de baixo risco", é uma categoria vinculativa — é muito difícil "pensar fora da caixa" e chamar de "baixo risco" uma atividade que claramente leva pessoas à falência da noite para o dia. Eu certamente não sou contra a existência de DeFi de alto risco — afinal, sou fã de mercados de previsão (plataformas onde você aposta no resultado de eventos futuros). Mas um ecossistema mais saudável seria aquele onde o DeFi de baixo risco fosse o prato principal e o DeFi de alto risco fosse um acompanhamento — algo divertido e experimental, não algo que permita apostar metade das suas economias. A pergunta final: será que a visão de que "os mercados de previsão não são apenas jogos de azar; eles beneficiam a sociedade ao melhorar o acesso a informações precisas" é apenas uma racionalização extremamente imaginativa e baseada na retrospectiva? Alguns certamente pensam que sim: "Os mercados de previsão nada mais são do que astrologia praticada por homens com formação universitária que usam termos como 'valor cognitivo' e 'utilidade social' para encobrir o fato de que estão apenas jogando." Permita-me defender-me. A razão pela qual você pode julgar isso como não sendo uma "racionalização posterior" é porque a tradição acadêmica de apreciar mercados de previsão e tentar torná-los realidade existe há trinta anos — muito mais tempo do que a possibilidade de alguém fazer fortuna com eles (seja criando um projeto ou participando dele). Essa "tradição acadêmica preexistente" é algo que as memecoins ou mesmo exemplos mais marginais, como tokens pessoais, não possuem. No entanto, repito, mercados de previsão não são DeFi de baixo risco, portanto, são complementos, não algo que permita que você aposte metade do seu patrimônio líquido. maximização de potência Dentro do círculo do "Altruísmo Eficaz" (AE) relacionado à Inteligência Artificial, existem muitos indivíduos poderosos que, se você perguntar a eles, dirão explicitamente que sua estratégia é acumular o máximo de poder possível. Seu objetivo é ocupar posições vantajosas para que, quando um "momento crucial" chegar, eles possam intervir com toda a força e recursos massivos e "fazer a coisa certa". A "maximização do poder" é a estratégia definitiva, a mais impressionante. O argumento "Dê-me poder para que eu possa fazer X" é igualmente persuasivo, independentemente do que X seja. Antes desse "momento crítico" (na teoria do apocalipse da IA, isso se refere ao momento antes de alcançarmos a utopia ou de toda a humanidade morrer e se tornar meros clipes de papel), suas ações por razões "altruístas" são exatamente iguais às suas ações por "ganância e autoengrandecimento". Portanto, qualquer pessoa que busque o segundo objetivo pode lhe dizer, sem custo algum, que está se esforçando para alcançar o primeiro e convencê-lo de que é uma boa pessoa. De uma perspectiva externa (um método para corrigir vieses cognitivos que enfatiza a análise de dados estatísticos de situações semelhantes em vez de se basear em sentimentos subjetivos), esse argumento é claramente absurdo: todos acreditam ser mais morais do que os outros, então é fácil perceber que, mesmo que todos acreditem que maximizar seu poder seja um ganho líquido, na verdade não é. Mas de uma perspectiva interna, se você olhar ao redor e vir o ódio nas redes sociais, a corrupção política, os ataques cibernéticos e as ações desenfreadas de outras empresas de IA, a ideia de "Eu sou o mocinho, devo ignorar este mundo exterior corrupto e resolver os problemas sozinho" certamente parece atraente. E é exatamente por isso que adotar uma perspectiva externa é saudável. Alternativamente, você pode adotar uma perspectiva interna diferente, mais humilde. Aqui está um argumento interessante do fórum "Altruísmo Eficaz": Sem dúvida, a maior vantagem do investimento reside na sua capacidade de multiplicar exponencialmente os recursos financeiros que podem ser posteriormente utilizados para filantropia. Desde a sua criação, em 1926, o índice S&P 500 alcançou um retorno anualizado, ajustado pela inflação, de aproximadamente 7%... O risco de "desvio de valores" é mais difícil de estimar, mas é um fator significativo. Por exemplo, as fontes indicam consistentemente que a taxa média anual de "desvio de valores" entre indivíduos em uma comunidade altruísta eficaz é de aproximadamente 10%. Em outras palavras, embora sua riqueza possa de fato crescer 7% ao ano, dados empíricos também sugerem que, se você acredita em uma causa hoje, sua crença nela pode diminuir em cerca de 10% amanhã. Isso está de acordo com uma observação de Tanner Greer: intelectuais públicos geralmente têm uma "validade" de cerca de 10 a 15 anos, após a qual suas ideias não são mais melhores do que o ruído de fundo ao seu redor (quanto à importância do fato de eu ter começado a publicar meus textos em 2011, deixo isso para o leitor julgar). Portanto, se você acumular riqueza com o objetivo de 'agir mais tarde', seu eu futuro poderá muito bem usar essa riqueza extra para fazer coisas que você mesmo agora nem apoiaria. "Posso fazer mais internamente" No campo da segurança da IA, um problema recorrente é uma mistura de "maximização de poder" e "fatalismo": a crença de que a melhor maneira de avançar na segurança da IA é unir-se a empresas que estão acelerando a implementação de IA superinteligente e tentar melhorá-las "por dentro". Aqui, frequentemente encontramos justificativas como: “Estou muito decepcionado com a OpenAI. Eles precisam de mais funcionários preocupados com a segurança, como eu. Anuncio que me juntarei a eles para promover mudanças internas.” De uma perspectiva interna, isso parece razoável. No entanto, de uma perspectiva externa, você essencialmente se torna assim: Personagem A: "Este lugar é terrível." Personagem B: "Então por que você ainda não foi embora?" Personagem A: "Tenho que ficar e garantir que a situação piore." Outro bom exemplo dessa linha de pensamento é o sistema político da Rússia moderna. Aqui, gostaria de citar este artigo do Financial Times: Em 24 de fevereiro, três dias após o reconhecimento da existência dos separatistas de Donbas por Putin, ele lançou uma ofensiva em grande escala contra a Ucrânia, superando as piores expectativas. Assim como o resto do mundo, a Ucrânia só descobriu as verdadeiras intenções de Putin pela televisão. A recusa de Putin em acatar os alertas dos tecnocratas representou um duro golpe para o país. Um ex-executivo que conheceu Gref (CEO do Sberbank) no início da guerra disse: "Nunca o vi assim. Ele estava completamente arrasado, em estado de choque. '...' Todos achavam que era um desastre, e ele pensava assim mais do que qualquer outra pessoa. ... No círculo restrito da elite política russa, tecnocratas como Gref e Nabiullina (governadores do Banco Central da Rússia), antes considerados forças modernistas e reformistas para contrabalançar os 'siloviki' de Putin (os altos funcionários do aparato de segurança linha-dura), recuaram diante de uma oportunidade histórica de defender suas convicções em mercados abertos e se opor publicamente à guerra." Segundo ex-funcionários, esses tecnocratas, em vez de romperem com Putin, consolidaram seu papel como "facilitadores", usando sua experiência e ferramentas para mitigar o impacto das sanções ocidentais e manter a economia russa em tempos de guerra. Da mesma forma, o problema reside na frase "Eu posso fazer mais internamente", e a capacidade de resistir a "pensar fora da caixa" é incrivelmente baixa. É sempre fácil dizer "Eu posso fazer mais internamente", independentemente do que você realmente faça. Assim, você acaba sendo apenas uma engrenagem na máquina, desempenhando o mesmo papel que as engrenagens ao seu lado — aqueles que trabalham para sustentar suas famílias em mansões e jantares caros todos os dias — só que suas razões soam melhor. Então, como evitar "pensar fora da caixa"? Você pode fazer muitas coisas diferentes, mas vou me concentrar em duas: Aderir aos princípios Estabeleça uma linha clara para o que você 'não quer fazer' — não matar pessoas inocentes, não roubar, não trapacear, respeitar a liberdade pessoal dos outros — e defina um limite muito alto para quaisquer exceções. Os filósofos costumam chamar isso de "ética deontológica" (que enfatiza obrigações e regras, em vez de resultados). A deontologia confunde muita gente — naturalmente, se existe uma razão fundamental por trás das suas regras, não deveríamos buscar essa razão diretamente? Se "não roubar" é uma regra porque roubar geralmente prejudica mais a vítima do que beneficia você, então você deveria seguir a regra de "não fazer coisas que causam mais mal do que bem". Mas se, às vezes, roubar é "mais benéfico do que prejudicial" — então roube! O problema dessa abordagem consequencialista (focada apenas nos resultados, não no processo) é que ela não tem absolutamente nenhuma capacidade de resistir ao pensamento extremamente imaginativo. Nossos cérebros são muito bons em fabricar razões para argumentar que "nesta situação específica, o que você (por outros motivos) há muito deseja fazer acaba sendo de grande benefício para toda a humanidade". A deontologia, por outro lado, diria: Não, você não pode fazer isso. Uma forma de deontologia é o utilitarismo de regras: as regras são escolhidas com base no que traz o maior benefício, mas quando se trata de escolher ações específicas, você simplesmente segue as regras que já escolheu. "Agarre" o "fardo" certo. Outro tema comum mencionado acima é que seu comportamento é frequentemente determinado por seus "incentivos" — no jargão das criptomoedas, os "ativos" que você possui (referindo-se aos ativos ou posições que você detém e que, por sua vez, influenciam suas opiniões e ações). Essa pressão é difícil de resistir. A maneira mais simples de evitá-la é evitar criar incentivos ruins para si mesmo. Outro corolário é evitar se apegar à bagagem social errada: os círculos sociais aos quais você pertence. Você não pode tentar se livrar de qualquer bagagem social — fazer isso vai contra nossos instintos humanos mais básicos. Mas, no mínimo, você pode diversificá-las. O passo mais simples para isso é escolher sua localização geográfica com sabedoria. Isso me lembra da minha sugestão pessoal sobre o tema já bastante explorado de 'como contribuir para a segurança da IA': - Não trabalhe para uma empresa que esteja acelerando o desenvolvimento de recursos de "IA de ponta e totalmente autônoma". - Não more na região da Baía de São Francisco.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.