Google presenta un nuevo paradigma de aprendizaje automático: el Aprendizaje Anidado, que aborda el problema del olvido catastrófico en el aprendizaje continuo dentro del marco LLM. La idea principal no es entrenar el modelo como una entidad única y monolítica, sino como un conjunto de sistemas de aprendizaje más pequeños anidados. Este enfoque trata el modelo como un sistema de múltiples problemas de optimización anidados, donde cada subsistema tiene su propio ritmo de aprendizaje y flujo de información, en lugar de un proceso de entrenamiento unificado. Esto mejora la capacidad de LLM para manejar contextos extensos y permite el aprendizaje continuo. Utilizaron un modelo de arquitectura automodificable llamado Hope para probar y validar este enfoque, y los resultados mostraron que tenía mejores capacidades de gestión de memoria de contexto largo que los modelos de última generación existentes. Supera a Titans, Samba y al Transformer de referencia en tareas de modelado de lenguaje y razonamiento de sentido común; y supera a Titans, TTT y Mamba2 en la gestión de contextos largos. Primero, los parámetros se organizan en capas y la misma matriz de peso se divide en W₁, W₂, ..., Wₙ de acuerdo con el período de actualización (período 1, 4, 16, 64... pasos). Entonces, el sistema de memoria continua concibe la memoria como un "espectro", con diferentes módulos responsables de información de diferentes duraciones, evitando así que se olvide lo aprendido. El optimizador profundo se mejora al tratarlo como un módulo de memoria asociativa, refinando así su función objetivo y mejorando su robustez frente al ruido. El código de entrenamiento solo añade una línea con la condición de "actualizar más tarde"; el resto del marco permanece sin cambios.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.
