No ano novo, a Symbolic trará grandes novidades — fiquem de olho! Na ocasião, darei uma pequena comemoração e falarei sobre a abordagem que nos permitiu alcançar o que anunciaremos. Mas, adiantando um pouco, meu segredo como CTO é: simplesmente não acredito no hype da IA 🤷♂️
Não acredito no hype em torno de repositórios de "IA" com um zilhão de estrelas no GitHub. Eu os clono e percebo que não há muito trabalho real ali, e qualquer coisa interessante que encontre posso simplesmente copiar e usar no meu próprio aplicativo sem adicionar dependências.
Não acredito nessa história de que "o mundo está prestes a mudar instantaneamente por causa de algo secreto que vi dentro do laboratório" -- não acreditei nas postagens vagas na época e não acredito agora. Você está errado sobre o que há no laboratório e está errado sobre o mundo. Você tirou dois dados iguais.
Não acredito no alarde sobre como o lançamento deste ou daquele recurso inovador revolucionou toda a categoria de produtos. Ao contrário da maioria de vocês, eu pauso o vídeo de demonstração, analiso o resultado com atenção e dedico um tempo para avaliá-lo. Geralmente, o resultado é ruim, falso e superestimado.
Não acredito no alarde de que "a IA pode simplesmente escrever uma notícia agora, então o conteúdo está pronto" -- ouço isso desde o GPT-3 e não era verdade naquela época, e continua não sendo. Sei disso por experiência própria, pois trabalho com jornalistas que tentam fazer com que a IA escreva notícias.
Não acredito no alarde em torno dos modelos de codificação, ou pelo menos não nas versões mais extremas. O retorno de se ter um conhecimento profundo sobre o que é bom e o que é ruim na arte da engenharia de software aumentou, e não diminuiu, por causa da IA. (Os desenvolvedores júnior estão realmente em apuros.)
Eu não acreditava no alarde em torno dos bancos de dados vetoriais. Continuei usando o PostgreSQL, e o pgvector era bom o suficiente nos primeiros tempos e melhorou bastante desde então. Mas, novamente, o nível de exigência para adicionar uma nova dependência precisa ser extremamente alto, e "ter muitas estrelas" não é suficiente.
Não acredito em toda essa propaganda sobre agentes. Os bons ainda são bem simples e não fazem muita coisa antes de consultar um humano novamente. Os erros dos agentes não se anulam — eles se acumulam. Portanto, é melhor manter tudo nos trilhos o máximo possível.
Não acredito nas previsões dos laboratórios de vanguarda. Quer dizer, É CLARO que as previsões dos laboratórios sobre o desempenho futuro de seus benchmarks se concretizaram — você viu os valores em dólares atrelados a esses "números" subirem?! A desconexão entre isso e a "inteligência" só aumentou.
Não acredito no hype em torno dos LLMs. Essa é uma tecnologia muito restrita e frágil, útil para elicitar sequências, e exige muita engenharia de software (embora o hype em torno da engenharia de contexto seja real) para direcionar os usuários a regiões economicamente valiosas do espaço latente. LLMs ≠ IAG (Inteligência Artificial Geral).
Na Symbolic, vimos retornos incríveis ao mantermos a calma, não nos deixarmos levar pela euforia e ao nos concentrarmos em fazer discretamente a única coisa que você absolutamente precisa fazer para ter um negócio: identificar e resolver problemas reais dos clientes.
Como desenvolvedor de IA, tenho me beneficiado muito ignorando o hype em torno da IA, as postagens vagas, o FOMO maníaco e os tópicos repetitivos, tratando os LLMs como apenas mais uma ferramenta na caixa de ferramentas e mais uma API REST que posso chamar e da qual posso obter uma resposta útil.
Minha previsão para IA em 2026 é que a quantidade de "alfa" em ignorar 90% de toda a conversa sobre IA só aumentará à medida que os números de referência continuarem a se distanciar da dura realidade de incorporar LLMs em recursos reais para clientes reais que estão realizando trabalho real.