Nuevo blog de investigaciónaxiommath.ai/territory/lear…/mkD0zo5ogV Aprendiendo Collatz - La Madre de todas las Agujeros de Conejo ¿Qué sucede cuando entrenas a un transformador en uno de los acertijos sin resolver más infames de las matemáticas... y luego estudias cómo falla?
Elige un número, cualquier número. Ahora imagínelo como el Conejo Blanco de Alicia en el País de las Maravillas, mirando nerviosamente su reloj antes de lanzarse como un cisne por una madriguera aritmética. ¿Par? Reducir a la mitad. ¿Impar? Triple + 1, luego reducir a la mitad. De alguna manera, el conejo siempre vuelve a 4→2→1. ¡Magia!
Detrás de toda esta extravagancia se esconde uno de los problemas abiertos más notorios de las matemáticas. La conjetura de Collatz. Está abierto desde los años 30. Las computadoras han comprobado todos los valores iniciales hasta 2,95×10²⁰. Todos llegan a 1. Y aún así...no hay pruebas.
¿Quieres sentirlo? Empieza con el 81: 81→244→122→61→184→92→46→23→70→35→106→53→160→80→40→20→10→5→16→8→4→2→1 Luego se repite eternamente. ¡Zigzag loco a través de los números enteros! Una rápida caída de 23 pasos de vuelta a la tierra. Y el conejo finalmente vuelve a parpadear bajo la luz del sol.
Cuando el conejo quiere saltar directamente a su destino final, se denomina paso largo de Collatz. ¿Puede un transformador predecir estos "largos pasos de Collatz"? ¿Y qué tan perfecto? Francois Charton @f_charton de Axiom y su colaborador Ashvni Narayanan obtuvieron una precisión del 99,8 % hasta un billón.
¿Cómo llegó el transformador a esta altura? Mediante saltos discretos. 25%→37%→55%→71%→88% Múltiples pasos como saltos de conejo. Estos saltos no son nada aleatorios. Están vinculados a la estructura matemática profunda de las propias secuencias de Collatz.
¿El secreto? La codificación binaria. Los modelos aprenden con un estilo específico. En lugar de estar "simplemente bien" en todo, aprenden a estar perfectamente en lo cierto al expandir conjuntos de entradas, para luego pasar al siguiente conjunto. Las entradas que terminan en 001 en el sufijo binario primero, luego las que terminan en 1011, y así sucesivamente.
El folclore dice que los LLM no pueden hacer cálculos aritméticos, pero aquí los modelos no están alucinando. Casi el 90% de los errores siguen sólo dos reglas simples y explicables que podemos interpretar. Están razonando con cuidado, pero muy ocasionalmente siguen al conejo correcto hacia un túnel de longitud equivocada.
¡Las matemáticas en sí mismas pueden ser una nueva herramienta para la investigación de la interpretabilidad! La interpretabilidad a menudo significa autopsias peso por peso. Pero a medida que los modelos crecen, es como mapear una ciudad neurona por neurona. Diseñamos experimentos basados en principios básicos. Luego, analizamos los resultados. Las matemáticas como microscopio.🔬
artícularxiv.org/pdf/2511.10811mYc Blaxiommath.ai/territory/lear…pmoT