Fiquei particularmente curioso para perguntar a @karpathy por que os carros autônomos levaram mais de uma década, desde as excelentes demonstrações até uma implementação minimamente viável. Andrej liderou a área de IA na Tesla por 5 anos. Eu realmente queria saber se esses atritos deveriam prolongar nossos cronogramas para a Inteligência Artificial Geral (AGI, na sigla em inglês), ou se eram específicos da condução autônoma. Dirigir tem um custo muito alto em caso de falha. Os humanos são motoristas surpreendentemente confiáveis – temos um acidente grave a cada 640.000 quilômetros/7 anos. E os carros autônomos precisam igualar ou superar esse perfil de segurança antes de poderem ser implementados. Mas será que a maioria dos domínios é assim? Antes da entrevista, parecia-me que quase todos os domínios em que gostaríamos de implementar AGI têm um custo de falha muito menor. Se engenheiros de software totalmente autônomos não pudessem cometer erros durante 7 anos, a implementação seria de fato extremamente lenta. Andrej levantou um ponto interessante que eu não tinha ouvido antes: em comparação com a condução autônoma, a engenharia de software tem um custo de falha mais alto (e potencialmente ilimitado): Se você estiver escrevendo código de nível de produção real, qualquer tipo de erro pode levar a uma vulnerabilidade de segurança. Os números de segurança social de centenas de milhões de pessoas podem ser vazados. Em direção autônoma, se algo der errado, você pode se machucar. Existem consequências piores. Mas em software, o quão terrível algo pode ser é praticamente ilimitado. Em alguns aspectos, a engenharia de software é um problema muito mais complexo [do que a direção autônoma]. A direção autônoma é apenas uma entre milhares de atividades. É quase como uma área de atuação específica. Já quando falamos de engenharia de software em geral, a área de atuação é muito maior. Há potencialmente outro motivo pelo qual a transição de LLM para AGI amplamente implementada pode ocorrer muito mais rapidamente: os LLMs nos fornecem percepção, representações e senso comum (para lidar com exemplos fora da distribuição) gratuitamente, enquanto que esses recursos tiveram que ser moldados do zero para carros autônomos. Perguntei a Andrej sobre isso: Não sei o quanto estamos recebendo de graça. Os LLMs ainda são bastante falíveis e têm muitas lacunas que precisam ser preenchidas. Não acho que estejamos obtendo generalizações mágicas de imediato. Outro aspecto que eu gostaria de abordar é que os carros autônomos ainda estão longe de estar prontos. As implantações são bastante pequenas. Mesmo a Waymo tem pouquíssimos carros. Eles construíram algo que existe no futuro. Tiveram que antecipar o futuro, mas precisaram torná-lo antieconômico. Além disso, quando você olha para esses carros e não há ninguém dirigindo, percebe que há mais intervenção humana do que você imagina. De certa forma, não removemos a pessoa, apenas a movemos para um lugar onde você não pode vê-la.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.