Resumen rápido del estado de HOC / HVM / Bend: - Hace aproximadamente un año, lanzamos Bend1 - Primer lenguaje en ejecutar closures + asignador de objetos rápido en GPU - Aceleración casi ideal hasta más de 10000 núcleos - basado en HVM2, un entorno de ejecución estricto para redes de interacción Problemas: - La complejidad de la interpretación sigue siendo significativa. - RTX 4090 completa para superar a OCaml / JavaScript / etc. de 1 núcleo. - grandes limitaciones prácticas (int24, sin E/S, sin paquetes) - a pesar de la sintaxis de Python, seguía siendo difícil de usar Resulta que la mayoría de los desarrolladores no pueden pensar recursivamente. - incompatible con la evaluación perezosa (¡no es β-óptimo!) Me decepcionaron los problemas mencionados. Al mismo tiempo, me sentía cada vez más optimista sobre la aplicación de la evaluación óptima al problema de la síntesis de programas, que es una piedra angular de la IA simbólica: una idea fallida, pero con la firme convicción de que "puedo solucionarlo". Tomé una decisión: descartar HVM2 (💀) y volver a las raíces de HVM1, que se basaba en mi "Cálculo de Interacción" e incorporaba la β-optimalidad. Lo perfeccioné y mejoré profundamente, dando como resultado HVM3, un prototipo escrito en Haskell. Luego lo utilicé para comprender e investigar la síntesis de programas en evaluadores óptimos. Fue un proceso arduo que me llevó casi un año, pero los resultados fueron positivos y nuestro sistema ahora supera a todas las alternativas publicadas en eficiencia y capacidades. Ahora, estamos tomando todo eso y consolidándolo, implementando el tiempo de ejecución/compilador en C puro, para que pueda ejecutarse de la manera más eficiente posible en nuestro humilde clúster de Mac Mini (🥹), y ofrecerlo al mundo a través de una API. Tenía previsto el lanzamiento para octubre, pero aún hay algunos desafíos que me han costado más tiempo del previsto. Por ejemplo, encontrar pruebas Lean con SupGen requiere un manejo muy cuidadoso de las superposiciones, y hacerlo en C es realmente MUY difícil; sin embargo, el progreso es constante y ya hemos avanzado mucho, por lo que sigo esperando lanzar Bend2/HVM4 este año o en el primer trimestre de 2026. Bend2 tendrá: - Tiempo de ejecución de CPU en paralelo con modo perezoso/óptimo (!!!) - Enteros, enteros no binarios y números de punto flotante de 16/32/64 bits (finalmente) - E/S arbitraria mediante interoperabilidad C ligera (¡como Zig!) —Aún no he implementado CUDA por falta de tiempo, aunque es perfectamente factible. - Lo más importante: Integración de SupGen SupGen es algo nuevo y la principal novedad de Bend2. *No* es una IA tradicional; es algo completamente nuevo capaz de generar código a partir de ejemplos y especificaciones. Creo que muchos (sobre todo quienes trabajan en aprendizaje profundo) se sorprenderán gratamente de todo lo que podemos lograr con la búsqueda simbólica pura y, más que nada, estoy deseando ver esa reacción.
También olvidé mencionar: Bend2 se exportará a JavaScript/Haskell, por lo que podrás usarlo para escribir aplicaciones normales sin tener que esperar a que haya soporte en el ecosistema de Bend. Lamentablemente, Bend2 no podrá cumplir su promesa: "si puede ejecutarse en paralelo, se ejecutará en paralelo". Esto se debe a que esta promesa es *obviamente* incompatible con la evaluación diferida (o se espera a ver si una expresión será visible, o se reduce en paralelo; no se pueden tener ambas). Aún quiero ofrecer un modo estricto completo como una actualización directa de HVM2 en el futuro, pero el tiempo apremia y no es nuestra prioridad ahora mismo. Por otro lado, creo que podremos ejecutar el modo diferido en las GPU. En la práctica, creo que esto será mucho mejor que el paralelismo estricto completo. Nuestra campaña en WeFunder sigue activa, pero no la estoy supervisando activamente y la cerraré después de su lanzamiento.