Visão geral rápida do estado do HOC / HVM / Bend: - Há cerca de um ano, lançamos o Bend1. - Primeira linguagem a executar closures + alocador de objetos rápido na GPU - Aceleração quase ideal em até 10.000+ núcleos - baseado no HVM2, um ambiente de execução rigoroso para Redes de Interação Problemas: - Sobrecarga de interpretação ainda significativa - RTX 4090 completa para superar OCaml/JavaScript/etc. de 1 núcleo. - grandes limitações práticas (int24, sem E/S, sem pacotes) - apesar da sintaxe do Python, ainda era difícil de usar. - Descobriu-se que a maioria dos desenvolvedores não consegue pensar recursivamente. - incompatível com avaliação preguiçosa (não é β-ótimo!!) Fiquei desapontado com os problemas acima. Ao mesmo tempo, meu otimismo em relação à aplicação da avaliação ótima ao problema da síntese de programas, que é um dos pilares da IA Simbólica — uma ideia que não deu certo, mas com uma forte sensação de "eu consigo consertar". Tomei uma decisão: descartar o HVM2 (💀) e voltar às raízes do HVM1, que era baseado no meu "Cálculo de Interação" e apresentava otimalidade β. Aprimorei-o bastante, resultando no HVM3, um protótipo escrito em Haskell. Em seguida, usei-o para entender e pesquisar a síntese de programas em avaliadores ótimos. Isso foi DIFÍCIL e me custou cerca de um ano da minha vida, mas os resultados foram positivos e nosso sistema agora supera todas as alternativas publicadas em eficiência e capacidades. Agora, estamos pegando tudo isso e solidificando, implementando o ambiente de execução/compilador em C puro, para que ele possa ser executado da forma mais eficiente possível em nosso modesto cluster de Mac Mini (🥹) e disponibilizá-lo para o mundo por meio de uma API. Eu esperava lançar em outubro, mas ainda existem alguns desafios que me custaram mais tempo do que eu previa. Por exemplo, encontrar provas Lean com SupGen exige um tratamento muito cuidadoso das superposições, e fazer isso em C é realmente MUITO DIFÍCIL — mas as coisas estão progredindo de forma constante e já fizemos bastante coisa, e ainda espero lançar o Bend2/HVM4 este ano ou no primeiro trimestre de 2026. Bend2 terá: - tempo de execução paralelo da CPU com modo preguiçoso/ótimo (!!!) - Inteiros, inteiros não numerados e números de ponto flutuante de 16/32/64 bits (finalmente) - E/S arbitrária via interoperabilidade leve em C (como o Zig!) - Ainda não implementei CUDA por falta de tempo, mas é perfeitamente possível. - Mais importante ainda: integração com o SupGen SupGen é algo novo e a principal novidade por trás do Bend2. *Não* é uma IA tradicional, é algo completamente novo capaz de gerar código com base em exemplos e especificações. Acho que muitos (especialmente aqueles na área de aprendizado profundo) ficarão totalmente surpresos com o que podemos realizar com busca simbólica pura e, acima de tudo, mal posso esperar para ver essa reação.
Também esqueci de mencionar: O Bend2 exportará para JavaScript/Haskell, permitindo que você o utilize para escrever aplicativos comuns sem precisar esperar pelo suporte no ecossistema Bend. - Infelizmente, o Bend2 quebrará uma promessa: "se puder ser executado em paralelo, será executado em paralelo". Isso porque essa promessa é *obviamente* incompatível com a avaliação preguiçosa (ou você espera para ver se uma expressão será visível, ou a reduz em paralelo - não é possível ter ambos). Ainda pretendo oferecer um modo estrito completo como uma atualização direta do HVM2 no futuro, mas o tempo é curto e isso não é nosso foco agora. Por outro lado, acredito que conseguiremos executar o modo preguiçoso em GPUs. Na prática, acredito que isso será muito melhor do que o paralelismo estrito completo. Nossa campanha no WeFunder ainda está ativa, mas não estou acompanhando ativamente e será encerrada após o lançamento.