Yann LeCun: Por que saí da Meta aos 65 anos para fazer algo que "todo mundo achava errado". Na semana passada, Yann LeCun, um dos três gigantes do aprendizado profundo, concedeu uma longa palestra. Este vencedor do Prêmio Turing, que deveria ter se aposentado e aproveitado seus 65 anos, optou por deixar a Meta, onde trabalhou por 12 anos, e fundou uma nova empresa chamada AMI (Advanced Machine Intelligence) em Paris. O que ele vai fazer é completamente oposto ao que todas as grandes empresas do Vale do Silício estão apostando. Enquanto a OpenAI, o Google e a Anthropic estavam freneticamente desenvolvendo LLMs (Large Language Models), Yann disse: "Esse caminho não vai funcionar; precisamos de um modelo mundial." Enquanto todos comentavam quantos anos faltavam para a Inteligência Artificial Geral (IAG), Yann disse: Vocês foram todos enganados. Na melhor das hipóteses, levará de 5 a 10 anos para atingirmos o nível de inteligência dos cães. Quando os defensores do apocalipse da IA dizem que as máquinas governarão a humanidade, Yann afirma: Isso é pura ilusão. Por que sair da Meta neste momento? O raciocínio de Yann é simples: o Meta está se tornando fechado. O FAIR (Facebook AI Research), que ele fundou na Meta, foi outrora o laboratório mais aberto do setor, onde todas as pesquisas eram publicadas em artigos e todo o código era de código aberto. O PyTorch teve origem lá. Essa cultura aberta, em certa medida, forçou o Google a também se tornar mais aberto. Mas agora as coisas mudaram. A OpenAI começou a desenvolver sua tecnologia em segredo há alguns anos, e o Google seguiu o exemplo. Agora, até mesmo a Meta está caminhando nessa direção. Foi solicitado à FAIR que trabalhasse em projetos mais curtos, publicasse menos artigos e cooperasse mais com a equipe do LLM. "Não se pode chamar de pesquisa algo que não foi publicado", disse Yann, "caso contrário, você estará se enganando facilmente." Ele já viu muitos "projetos egocêntricos" dentro de grandes empresas, onde um grupo de pessoas se isola e pensa ter feito uma descoberta revolucionária, completamente alheio ao fato de que outras pessoas já fizeram isso muito melhor. Mais importante ainda, se você disser aos cientistas: "Venham trabalhar conosco, mas não podem dizer o que estão fazendo; talvez isso tenha algum impacto no produto daqui a 5 anos", ninguém se sentirá motivado a fazer uma descoberta realmente inovadora. Então ele decidiu se assumir. Mas por que é possível abrir um negócio agora? Há um fenômeno muito interessante aqui. Anteriormente, apenas grandes empresas podiam conduzir pesquisas de IA de longo prazo. Os Laboratórios Bell dependiam do monopólio de telecomunicações da AT&T, a IBM Research dependia do seu monopólio de mainframes e a Xerox PARC dependia do seu monopólio de copiadoras. Somente os lucros excessivos gerados por um monopólio podem sustentar uma equipe de pesquisa que não considera retornos de curto prazo. Mas agora as coisas são diferentes. Os investidores têm expectativas sem precedentes em relação à IA e estão dispostos a investir pesadamente em startups, permitindo que as equipes se concentrem na pesquisa durante os dois primeiros anos. "Antes isso era impossível", disse Yann. Portanto, o modelo da AMI é: realizar pesquisas básicas, publicar tudo o que foi divulgado, mas também desenvolver produtos. O produto que eles querem fabricar é um sistema inteligente baseado em um modelo do mundo. O que é um modelo mundial? Por que Yann acredita que esse é o caminho certo? Esta é a parte mais crucial de toda a entrevista. A crítica de Yann aos mestrados em Direito (LLM) é muito direta: eles não conseguem lidar com o mundo real. Ele fez as contas: Treinar um LLM decente requer 30 trilhões de tokens. Cada token tem aproximadamente 3 bytes, então seriam necessários 10 elevado à potência de 14 bytes. O que isso significa? São todos os dados textuais que podem ser encontrados na internet. Mas e se mudarmos para vídeo? Dez elevado à potência de 14 bytes, a uma taxa de compressão de 2 MB por segundo, é suficiente apenas para 15.000 horas de vídeo. O que são 15.000 horas? É a quantidade de tempo que um vídeo é carregado no YouTube em 30 minutos. É o tempo total que uma criança de 4 anos passa acordada (aproximadamente 16.000 horas em 4 anos). A mesma quantidade de dados contém muito mais informação em um vídeo do que em um texto. Além disso, os vídeos contêm muita redundância, e essa redundância é justamente a chave para o aprendizado. Não se pode aprender nada com coisas completamente aleatórias; o que se pode aprender sempre apresenta padrões e redundância. Portanto, Yann conclui que nunca poderemos treinar IA de nível humano usando apenas texto. Então, o que exatamente é o modelo mundial? Muitas pessoas pensam que os modelos do mundo são "simuladores", como motores de jogos, que reproduzem cada detalhe do mundo. Yann disse que esse entendimento está completamente errado. Ele deu um exemplo: dinâmica dos fluidos computacional (CFD). Para simular o fluxo de ar ao redor de um avião, você dividiria o espaço em pequenos quadrados, cada um contendo variáveis como velocidade, densidade e temperatura, e então resolveria equações diferenciais parciais. Esta já é uma representação abstrata. No mundo real, as moléculas de ar colidem, mas ninguém simula cada molécula individualmente; os requisitos computacionais seriam astronômicos. Em um nível mais profundo? As moléculas são compostas de átomos, os átomos são compostos de partículas e as partículas são descritas usando a teoria quântica de campos. Se você realmente quiser simular nossa conversa atual da perspectiva da teoria quântica de campos, precisaria de um computador quântico do tamanho da Terra, e ele só conseguiria simular alguns nanossegundos. Então, o que fazemos? Inventamos a abstração. Partículas, átomos, moléculas, proteínas, células, órgãos, organismos, sociedades, ecossistemas — cada camada ignora uma grande quantidade de detalhes sobre a camada abaixo. Em essência, todos os campos científicos envolvem a formulação de previsões em um certo nível de abstração. Os físicos têm um exemplo clássico: uma caixa cheia de gás, onde é possível simular o movimento de cada molécula, mas ninguém faz isso. Usamos PV=nRT, onde pressão × volume = número de partículas × temperatura. Essa é a ideia central do modelo mundial: fazer previsões em um espaço de representação abstrato e prever apenas as partes relevantes. Se eu lhe perguntasse onde Júpiter estará daqui a 100 anos, de todas as informações sobre Júpiter, você precisaria apenas de seis números: três coordenadas de posição e três componentes de velocidade. Nada mais importa. Por que o LLM não consegue fazer isso? O problema com os LLMs é que eles tentam prever cada pixel, cada token. Isso é simplesmente impossível para dados contínuos, ruidosos e de alta dimensionalidade. Não é possível prever o próximo fotograma de um vídeo ao nível do pixel, porque existem demasiados detalhes imprevisíveis. A forma como uma folha flutua, como se forma um respingo de água — tudo isso acontece por acaso. O LLM trabalha com texto porque o próprio texto é discreto e relativamente pouco dimensional. No entanto, eles têm um desempenho ruim em tarefas visuais, já que todas as habilidades visuais são treinadas separadamente e não são aprendidas pelo próprio LLM. A solução de Yann é a JEPA (Joint Embedding Predictive Architecture). Em resumo: 1. Passe tanto a entrada X quanto o valor Y a ser previsto por um codificador para obter uma representação abstrata. 2. Fazer previsões no espaço de representação abstrata 3. Este espaço de representação ignora automaticamente detalhes imprevisíveis (incluindo ruído). Ele vinha pensando nessa ideia há muito tempo. Uma jornada de reflexão de 20 anos Yann começou a pesquisar aprendizado não supervisionado no início dos anos 2000, com a ideia de usar um autoencoder: a entrada é representada por um codificador e, em seguida, a entrada é reconstruída por um decodificador. Mas essa linha de raciocínio está errada. Forçar a representação a incluir todas as informações de entrada é uma má ideia. Posteriormente, eles experimentaram vários métodos de regularização: autoencoders esparsos, autoencoders de remoção de ruído e máquinas de Boltzmann restritas. Todas essas opções eram bastante populares na época, mas nenhuma delas realmente resolveu o problema. Em 2015, Yann fez um discurso de abertura no NIPS (agora NeurIPS), que teve como foco os modelos mundiais. Seus alunos começaram a fazer previsões em vídeo. Mas então o mesmo erro foi cometido: fazer previsões ao nível do pixel. Isso é simplesmente impossível de fazer bem. A previsão é não determinística; você precisa de variáveis latentes para representar tudo o que você não sabe. Eles tentaram durante muitos anos, mas os resultados não foram os ideais. O ponto de virada ocorreu há cinco anos. O pós-doutorando de Yann, Stéphane Deny, testou uma ideia: Em vez de aprendizagem contrastiva, ela maximiza diretamente a quantidade de informação na saída do codificador. Inicialmente, Yann achou que isso não daria certo porque tinha visto Geoffrey Hinton fazer tentativas semelhantes na década de 1980, todas sem sucesso. Não é possível maximizar diretamente a informação, pois você só pode calcular o limite superior da informação, e não o limite inferior. Mas, na verdade, funcionou. Esse método é chamado de Método dos Gêmeos de Barlow. Posteriormente, eles aprimoraram ainda mais o sistema com o VICReg (Regularização de Variância-Invariância-Covariância), que se mostrou ainda mais eficaz. Recentemente, Randall Balestriero (que também já participou deste podcast) e Yann lançaram o I-JEPA, que usa o SigReg para garantir que a saída do codificador seja uma distribuição gaussiana isotrópica. Este método já está bastante consolidado. Por que se diz que o LLM nunca alcançará a AGI? Yann é muito crítico do atual "culto dos LLM" no Vale do Silício. "Todos estão fazendo a mesma coisa porque a competição é tão acirrada que ninguém se atreve a fazer um desvio." OpenAI, Meta, Google, Anthropic — todos estão envolvidos: • Expandir o tamanho do modelo • Treinar com mais dados sintéticos • Comprar dados licenciados • Contratar milhares de pessoas para realizar RLHF • Inventar novas técnicas de aprendizagem por reforço Eles acreditam que esse caminho leva à superinteligência. Yann disse: Isso é pura ilusão, nunca vai dar certo. Em seguida, adicionaram algumas técnicas de "raciocínio", que essencialmente envolvem fazer o modelo gerar cadeias de pensamento extremamente longas, gerando um grande número de saídas candidatas e, em seguida, usando uma função de avaliação para selecionar a melhor. "Isso não nos levará a lugar nenhum." Ele disse que existe uma espécie de "complexo de superioridade" no Vale do Silício atualmente. O DeepSeek surgiu há algum tempo e obteve bons resultados utilizando diferentes métodos, o que surpreendeu as pessoas no Vale do Silício. Vocês acham que são os únicos inteligentes? Quanto tempo levará para que a verdadeira Inteligência Artificial Geral (IAG) se desenvolva? Yann começou dizendo que o conceito de "inteligência geral" é um absurdo. Nós, humanos, pensamos que somos "universais", mas na realidade somos extremamente especializados. Somos ótimos em lidar com o mundo real, ótimos em socializar, mas somos péssimos em xadrez. As máquinas são melhores do que nós há muito tempo. Acreditamos que somos versáteis simplesmente porque os problemas que conseguimos imaginar são problemas que conseguimos resolver. Mas existem muitos problemas que nunca sequer imaginamos. Portanto, em vez de dizer "inteligência geral", diga "inteligência de nível humano". No cenário mais otimista, os cães atingirão seu nível de inteligência dentro de 5 a 10 anos. Por que um cachorro? A principal diferença entre cães e humanos reside no tamanho do cérebro e na linguagem. A linguagem, na verdade, representa uma parte muito pequena, abrangendo apenas a área de Broca e a área de Wernicke, duas pequenas regiões do córtex que evoluíram em menos de um milhão de anos. Já possuímos LLMs (músculos de ligação à linguagem) para o processamento da linguagem, que podem ser considerados as áreas da linguagem no cérebro. O que nos falta agora é o córtex pré-frontal, onde reside o modelo do mundo. Mas Yann também disse que podemos encontrar obstáculos que não conseguimos ver agora, e que podem levar 20 anos ou até mais para serem superados. "Isso já aconteceu muitas vezes na história da IA." O paradoxo de Moravec ainda está em jogo. Moravec afirmou em 1988: "Tarefas intelectuais que consideramos difíceis (jogar xadrez, calcular pontuações) podem ser realizadas facilmente por computadores." Mas há coisas que consideramos normais (coisas que os gatos conseguem fazer) e que os computadores não conseguem. Quarenta e sete anos se passaram, e esse paradoxo ainda persiste. Agora podemos treinar robôs para andar e evitar obstáculos, mas eles são muito menos ágeis e criativos do que um gato. "Portanto, aqueles que dizem que teremos Inteligência Artificial Geral (IAG) dentro de um ou dois anos estão completamente iludidos. O mundo real é muito mais complexo do que eles imaginam." Não é possível compreender o mundo real tokenizando-o e depois utilizando o LLM. Será que a IA vai acabar com todos os empregos? Yann disse: Não deem ouvidos aos cientistas de IA que falam sobre economia. Pergunte a qualquer economista, e nenhum deles preverá desemprego em massa. Ele deu um exemplo: o emprego mais procurado na década de 1980 era o de "engenheiro do conhecimento". Naquela época, havia uma grande tendência chamada sistemas especialistas, e o Japão lançou o projeto "Computador de Quinta Geração" para criar uma CPU capaz de executar Lisp e mecanismos de inferência. O trabalho de um engenheiro de conhecimento é sentar-se ao lado de um especialista, transformar o conhecimento do especialista em regras e fatos, e então o computador pode fazer o que o especialista fazia. Esta é uma versão manual de clonagem de comportamento. O resultado? Funciona apenas em pouquíssimas áreas, e existem pouquíssimas aplicações que sejam simultaneamente economicamente viáveis e altamente confiáveis. Este não é o caminho para a inteligência humana. Mas as pessoas da época também sentiam que esse era o futuro, assim como as pessoas hoje sentem que o LLM é o futuro. "Na minha carreira, essa ilusão de que 'a tecnologia mais recente está prestes a trazer a Inteligência Artificial Geral' ocorreu três vezes, e provavelmente cinco ou seis vezes antes de mim." Em 1956, Newell e Simon criaram o "General Problem Solver" (um nome bem modesto, não é?). Eles acreditam que todos os problemas podem ser representados como uma busca: existe uma função objetivo, um espaço de soluções, e a busca consiste simplesmente em encontrar a solução ótima. O que eles não sabem é que todos os problemas interessantes têm complexidade exponencial. Portanto, o solucionador de problemas geral não é nada geral. Segurança da IA: por que Yann não está preocupado? Muitas pessoas lhe perguntam o que fazer quando suas opiniões divergem das de Hinton e Bengio. A resposta de Yann foi prática: Claro que a segurança é importante, mas isso é uma questão de engenharia, não uma questão de princípio. Ele citou o exemplo dos motores a jato. Você pode voar meio mundo em um avião bimotor por 17 horas, com total segurança. Isso é incrível. As temperaturas dentro de um motor turbofan são insuportáveis para qualquer metal. A força centrífuga gerada por sua rotação chega a centenas de toneladas. Logicamente, essa coisa nem deveria estar funcionando. Mas funciona porque a engenharia é boa. Na primeira vez que construirmos um motor a jato, ele certamente explodirá após 10 minutos de funcionamento. Não será eficiente em termos de consumo de combustível e não será confiável. Mas os fatores econômicos foram tão fortes que, em última análise, alcançaram o nível de confiabilidade que vemos hoje. O mesmo se aplica à IA. Primeiro, criaremos uma IA semelhante à de um gato e, em seguida, adicionaremos mecanismos de proteção para impedi-la de fazer coisas perigosas. Stuart Russell deu um exemplo: se você pedir a um robô doméstico para lhe trazer café e alguém estiver bloqueando a máquina de café, o robô empurrará a pessoa ou até mesmo a machucará para concluir a tarefa? Yann disse que esse exemplo era estúpido porque era muito fácil de corrigir. Basta adicionar uma restrição de baixo nível: o robô doméstico deve manter distância das pessoas e, se alguém estiver bloqueando seu caminho, deve pedir que a pessoa se afaste, mas nunca deve ferir ninguém. Se um robô estiver segurando uma faca e cortando um pepino, adicione uma restrição: quando ele estiver com a faca na mão, não deverá acenar com o braço se houver pessoas por perto. Essas são restrições rígidas, não ajustes finos. O problema com o LLM é que você só pode fazer ajustes finos, e ele sempre pode ser desbloqueado (jailbreak). No entanto, se você usar uma arquitetura orientada a objetivos, tiver um modelo do mundo, puder prever as consequências das ações e, em seguida, selecionar sequências de ações por meio de otimização, atendendo a um conjunto de restrições, então ela será estruturalmente segura. Não pode escapar dessas restrições porque elas não são preferências treinadas, mas sim parte da arquitetura do sistema. Inteligência não é sinônimo de desejo de dominar. Este é um ponto que Yann enfatiza repetidamente. "Não é que algo queira dominar os outros só porque é inteligente. São duas coisas diferentes." Os seres humanos desejam influenciar os outros, às vezes por meio da dominação, às vezes por meio do prestígio; isso é algo que a evolução inscreveu em nossos genes, porque somos uma espécie social. Não há razão para incluirmos essa força motriz nos sistemas de IA, e eles não a desenvolverão sozinhos. Além disso, "as pessoas mais inteligentes geralmente não são as que querem ser o chefe". Ele disse: "Observe o cenário político internacional; aqueles que querem ser líderes não são as pessoas mais inteligentes." Muitas das pessoas mais inteligentes só querem estudar seus próprios problemas e não têm interesse nos problemas dos outros. Por que devemos permanecer abertos? A AMI publicará todas as pesquisas a montante. Yann disse que não se trata de sentimentalismo, mas sim de necessidade. "Se você não publicar, pode facilmente se enganar." Ele já tinha visto isso muitas vezes: pessoas dentro da empresa ficavam extremamente entusiasmadas com um projeto, achando que era uma descoberta revolucionária, mas não tinham ideia de que pessoas de fora já tinham feito um trabalho muito melhor. Além disso, se você disser aos cientistas: "Venham trabalhar, mas não digam o que vão fazer; talvez haja um produto daqui a 5 anos", eles não ficarão motivados. Eles precisam de feedback e reconhecimento de seus colegas a curto prazo. Se você quer um verdadeiro avanço, precisa fazer com que as pessoas publiquem seu trabalho. Não há outro jeito. "Isso é algo que muitas empresas estão esquecendo." Um fenômeno interessante: a China está se tornando mais aberta. Yann destaca um fenômeno irônico. O melhor modelo de código aberto atualmente vem da China. As empresas americanas (com exceção da Meta) estão se fechando em um esforço para proteger sua "vantagem competitiva". Mas as empresas e instituições de pesquisa chinesas são completamente abertas. Portanto, muitas pessoas na indústria e na academia estão usando modelos chineses porque precisam de modelos de código aberto. Muitas pessoas na indústria americana estão muito insatisfeitas com isso. Eles querem um bom modelo de código aberto que não seja chinês. Llama 4 poderia ter sido uma boa opção, mas é decepcionante. Talvez o Meta seja consertado, ou talvez o Meta seja desativado; não está claro. A Mistral acaba de lançar um ótimo modelo de geração de código e o manterá aberto, o que é muito legal. Por que ele ainda não se aposentou? Yann tem 65 anos, ganhou o Prêmio Turing e acaba de receber o Prêmio Rainha Elizabeth. Ela poderia se aposentar tranquilamente. A esposa dele também quer que ele se aposente. "Mas eu tenho uma missão." Ele sempre acreditou que tornar as pessoas mais inteligentes, ou usar máquinas para ajudar as pessoas a se tornarem mais inteligentes, é essencialmente algo bom. Inteligência é o bem mais escasso do mundo, especialmente no governo (disse ele, rindo). Como espécie e como planeta, nossa inteligência é limitada por um número finito de recursos. É por isso que investimos tantos recursos na educação das pessoas. Aumentar a quantidade total de inteligência a serviço da humanidade é, essencialmente, algo bom. É claro que existem perigos, e é claro que você precisa tomar precauções. Assim como você precisa garantir que um motor a jato seja seguro e confiável, um carro não vai te matar em uma colisão leve. Mas este é um problema de engenharia, não um problema insuperável. É também um problema político, mas não um problema insuperável. Todos os projetos de sua carreira giraram em torno deste objetivo: tornar as pessoas mais inteligentes. É por isso que ele se tornou professor, por isso que ele populariza a ciência amplamente nas redes sociais e por isso que ele realiza pesquisas sobre inteligência artificial. "As pessoas pensam que criar máquinas autônomas e inteligentes e criar máquinas que auxiliam os humanos são duas tecnologias diferentes. Não, elas são exatamente a mesma tecnologia." Yann faz mais do que apenas pesquisar IA. Ele adora velejar, especialmente em embarcações multicasco (trimarãs e catamarãs). Ele possui vários barcos. Ele gosta de construir máquinas voadoras. "Não as chamo de aviões, porque muitas delas não se parecem nada com aviões, mas de fato conseguem voar." Seu pai era engenheiro aeronáutico e construía aviões nas horas vagas, além de criar seus próprios sistemas de controle remoto por rádio. Isso se tornou uma atividade familiar. Seu irmão também fazia o mesmo; ele trabalhava no Google Research em Paris. Durante a pandemia, ele começou a praticar astrofotografia e comprou vários telescópios para fotografar o céu noturno. Ele fabrica instrumentos musicais eletrônicos. Seu interesse por música e música eletrônica vem desde a adolescência, e agora ele tem vários sintetizadores em casa. Ele constrói seus próprios instrumentos eletrônicos, do tipo que se toca soprando, com os dedos, mas que também produzem sinais de controle. Ele disse que a navegação e o modelo do mundo são muito semelhantes. Para navegar bem e rápido num veleiro, é preciso prever muitas coisas: como as ondas afetarão o barco, quando virão as rajadas de vento e se o barco irá inclinar. Basicamente, você precisa fazer cálculos de dinâmica de fluidos mentalmente. É preciso saber como o fluxo de ar se move ao redor da vela. Se o ângulo de ataque for muito grande, haverá turbulência e a sustentação diminuirá significativamente. "Ajustar as velas exige que você execute simulações de CFD mentalmente, mas, em um nível abstrato, você não está resolvendo equações de Stokes." É por isso que ele adora velejar: é preciso construir um modelo mental preditivo para se sair bem. Conselho final Alguém perguntou: Se eu fosse começar uma carreira em IA hoje, o que eu deveria aprender? A resposta de Yann pode te surpreender. Aprenda coisas que tenham longa validade, aprenda coisas que te ajudem a aprender a aprender. A tecnologia muda tão rápido que você precisa ter a capacidade de aprender rapidamente. Como fazer isso? Aprendendo o básico. Além disso, essas coisas geralmente não são ciência da computação. "Sou professor de ciência da computação, mas aconselho você a não estudar muita ciência da computação. E preciso ser franco: me formei em engenharia elétrica na graduação; não sou um cientista da computação de verdade." Você deve aprender: • Matemática, especialmente matemática aplicada à realidade • Modelagem • Conhecimentos adquiridos em disciplinas de engenharia Nos Estados Unidos, os cursos de Cálculo I, II e III fornecem uma base sólida. No entanto, os departamentos de ciência da computação exigem apenas Cálculo I, o que é insuficiente. Teoria da probabilidade, álgebra, cibernética, processamento de sinais e otimização são extremamente úteis para a IA. A física também é boa porque trata de "o que devo representar na realidade para fazer previsões". Essa é a essência da inteligência. É claro que você também precisa aprender o suficiente de ciência da computação, ser capaz de programar e saber usar um computador. Mesmo que a IA ajude na programação, você ainda precisa entender essas coisas. Alguém perguntou: O que acontecerá se a IA auxiliar na programação? Yann disse: Um fenômeno interessante ocorrerá: muito código será usado apenas uma vez. Porque escrever código se tornou muito barato. Você pede a um assistente de IA para "desenhar um diagrama" ou "criar um pequeno simulador", ele escreve um código, você o usa uma vez e depois o descarta. "Portanto, é errado dizer que não precisamos mais de programadores. Os custos de software têm diminuído, este é apenas o próximo passo." Mas isso não significa que os computadores se tornarão menos importantes; pelo contrário, eles se tornarão ainda mais importantes. Ao longo da entrevista, Yann demonstrou uma qualidade muito rara. Ele critica a tendência dominante atual, mas não pela crítica em si. Ele possui alternativas claras, décadas de reflexão acumulada, lições aprendidas com os fracassos e avanços recentes. Ele tinha 65 anos e poderia ter se acomodado, mas escolheu fazer algo que "todos achavam errado". Talvez ele tenha razão. Talvez daqui a cinco anos descubramos que, enquanto todos estão construindo LLMs, o verdadeiro avanço virá dos modelos mundiais. Talvez daqui a 20 anos nos deparemos com um obstáculo nunca antes visto. Mas pelo menos algumas pessoas estão seguindo um caminho diferente. E essa pessoa por acaso é a mesma que inventou as redes neurais convolucionais, persistiu por décadas durante o inverno da IA e testemunhou três momentos de "desta vez, definitivamente, podemos alcançar a IAG (Inteligência Artificial Geral)". Suas palavras merecem ser ouvidas, mesmo que sejam desagradáveis.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.