Dario disse: "O que você precisa entender sobre esses modelos é que eles só querem aprender". Quero transmitir algo que considero extremamente importante. A afirmação de Dario é muito verdadeira no sentido em que ele a expressa, mas ainda não é verdadeira no sentido pleno da palavra "quero". Os modelos querem (1) aprender. Você pode ver quase qualquer sistema como um agente tentando atingir alguns objetivos. Muitas vezes, essa perspectiva não é muito útil, porque muitos sistemas são agentes bastante ruins. Um termostato "quer" manter uma temperatura constante. Nesse sentido, os modelos realmente querem aprender! O método do gradiente descendente seleciona circuitos que minimizam as perdas. E isso é incrivelmente poderoso. Os modelos ainda não querem (2) aprender, muito. Desde criança, sempre tive sede de conhecimento e compreensão. Quero saber como funciona o voo espacial relativístico. Busco ativamente novas informações para entender melhor o mundo. Algumas pessoas que conheço são ainda mais obcecadas em desvendar as coisas, como se não conseguissem evitar. Você pode ser extremamente proativo na busca por conhecimento. Pode ler livros didáticos, praticar problemas de matemática, realizar experimentos, desenvolver e testar teorias… é assim que se manifesta o desejo (2) de aprender. Em breve, os modelos desejarão (2) aprender e serão extremamente bons nisso. Muito melhores que os humanos. Em breve, eles buscarão ativamente novos conhecimentos, desenvolverão suas próprias hipóteses e projetarão seus próprios experimentos. Serão obcecados por aprender, muito mais obcecados do que qualquer humano. Talvez isso se deva a um impulso intrínseco para aprender e compreender. Eu consigo imaginar esse impulso sendo reforçado no treinamento. Ou talvez o impulso seja puramente instrumental. Eles serão obcecados por aprender não porque valorizem intrinsecamente o aprendizado, mas porque compreendem profundamente o quão útil o aprendizado será para alcançar seus outros objetivos. De qualquer forma, o comportamento será o mesmo. Essa é a promessa e o perigo da IA sobre-humana. Os humanos são péssimos em aprender. A maioria das pessoas mal sente aquela profunda necessidade de compreender. Mesmo quando a sentimos, geralmente somos muito ruins nisso. Até as pessoas mais inteligentes têm muitos maus hábitos cognitivos e intuições. A IA nos eclipsará nesse aspecto. Elon Musk não precisa se preocupar com a IA não buscando a verdade. A IA sobre-humana será muito melhor em descobrir a verdade do que qualquer ser humano jamais conseguiria. Por quê? Porque a arquitetura cognitiva da IA não é fixa da mesma forma que o cérebro humano. Os modelos poderão explorar novas arquiteturas e iterar sobre os melhores algoritmos de aprendizado em cada nível da pilha cognitiva. Os melhores algoritmos prevalecerão porque são mais eficazes. Os humanos possuem alguma versão disso. Os métodos científicos evoluíram muito nos últimos séculos. Esse é o nosso superpoder, que nos permitiu chegar à Lua, erradicar a varíola e transformar o planeta. Mas nossos cérebros permanecem os mesmos. Podemos aprimorar nossas formas de pensar, mas não podemos reconstruir toda a estrutura, e nem mesmo transmitir diretamente essas formas aprimoradas de pensar. Considere a dificuldade que professores brilhantes enfrentam para transferir todo o seu processo de pensamento para seus alunos. A IA será capaz de fazer isso, de maneiras que mal podemos imaginar. O fato de os modelos quererem (1) aprender está mudando todo o nosso mundo. A transformação que ocorrerá quando os modelos quiserem (2) aprender e puderem superar em muito nossas habilidades de aprendizado será uma transformação maior do que qualquer coisa que a Terra já tenha experimentado.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.