La inteligencia artificial enfrenta uno de sus mayores desafíos: lograr aprendizaje continuo y retener información a largo plazo, de manera similar al funcionamiento del cerebro humano. Para abordar esta limitación, Google Research ha presentado Nested Learning (Aprendizaje Anidado), un nuevo paradigma de aprendizaje automático inspirado en la dinámica de las ondas cerebrales.
Este enfoque busca dotar a los modelos de IA de una memoria más robusta y la capacidad de incorporar conocimientos de forma sostenida. La propuesta fue presentada en la 39ª Conferencia sobre Sistemas de Procesamiento de Información Neural (NeurIPS 2025) y podría marcar un antes y un después en el desarrollo de sistemas de IA más adaptativos y eficientes.
Si alguna vez has interactuado con un modelo de Inteligencia Artificial (IA), como un chatbot avanzado, te habrás dado cuenta de que, si bien es increíblemente inteligente para responder a tus preguntas en el momento, tiene una memoria lamentable. Si apagas la conversación y vuelves al día siguiente, habrá "olvidado" gran parte de lo que hablamos.
Este no es solo un problema de software; es el mayor desafío de la IA moderna: el aprendizaje continuo. Los modelos actuales son geniales para lo que fueron entrenados, pero les cuesta aprender cosas nuevas después de su entrenamiento inicial. Google Research ha atacado este problema de raíz, mirando al mejor experto en la materia: el cerebro humano.

El Problema de la "Amnesia Artificial" en la IA
Para entender por qué Nested Learning es un avance tan grande, primero debemos entender la gran limitación de la IA actual.
A pesar de los avances en modelos de lenguaje y arquitecturas profundas, la IA actual sigue siendo esencialmente estática tras su entrenamiento inicial. Los grandes modelos de lenguaje solo pueden ejecutar tareas aprendidas durante la fase de preentrenamiento, sin incorporar nuevas habilidades o conocimientos de manera continua.
Cuando se entrena un Gran Modelo de Lenguaje (LLM, por sus siglas en inglés), como Gemini, se le da una cantidad masiva de datos y su cerebro artificial (sus parámetros) se "cristaliza". Después de eso, solo puede operar con la información que ya tiene.
Google Research explica que esta limitación es comparable a la amnesia anterógrada en humanos. Piensa en una persona que, debido a una lesión, solo puede recordar lo que sucedió hasta el momento del trauma, pero no puede formar nuevos recuerdos a largo plazo. De manera análoga, la IA:
- Solo puede operar con la información que está en su ventana de contexto (memoria a corto plazo, lo que hablamos en los últimos minutos).
- No tiene capacidad para consolidar esa nueva información en sus parámetros a largo plazo.
Si un LLM aprende un dato nuevo, tiene dos opciones: o lo olvida, o reescribe completamente todo su conocimiento, lo que es ineficiente y lleva a lo que los expertos llaman "olvido catastrófico". Esto nos lleva a la pregunta clave: ¿cómo logra el cerebro humano aprender sin borrar lo que ya sabe?

La Inspiración Biológica: Memoria Rápida y Memoria Lenta
El cerebro humano es un maestro del aprendizaje continuo, gracias a la neuroplasticidad y a un sistema de consolidación de memoria de dos velocidades:
- Consolidación Rápida (Online): Esto sucede inmediatamente después de que experimentas o aprendes algo. Tu cerebro lo estabiliza rápidamente. Es la "memoria de trabajo" o memoria a corto plazo.
- Consolidación Lenta (Offline): Esto es lo que sucede, principalmente, mientras duermes. Las ondas cerebrales de diferentes frecuencias interactúan para reorganizar y reforzar la memoria, moviendo el conocimiento de las áreas de almacenamiento temporal (como el hipocampo) a las áreas de almacenamiento permanente (la corteza). Es aquí donde el nuevo conocimiento se integra sin borrar el antiguo.
En los modelos de IA actuales, estos mecanismos de "memoria de dos velocidades" no existen. Si aprenden, lo hacen con todo su sistema al mismo tiempo, lo que causa la inestabilidad de la que hablamos.
La Solución de Nested Learning: Optimización Anidada
Aquí es donde entra el genio de Google Research. El Nested Learning o Aprendizaje Anidado propone una arquitectura que imita esta jerarquía de memoria biológica.
En lugar de tener un solo cerebro artificial que aprende a una sola velocidad, Nested Learning organiza el modelo como un sistema de problemas de optimización anidados.
¿Qué significa "Anidado"?
- Imagina varias capas de redes neuronales, como si fueran muñecas rusas (matrioshkas), donde cada capa representa una escala temporal y un nivel de abstracción diferente.
- Capas de Alta Frecuencia (Cercanas a la Superficie): Se actualizan constantemente y manejan los detalles más pequeños y los datos inmediatos (memoria a corto plazo, o el equivalente al sueño "rápido" o consolidación online).
- Capas de Baja Frecuencia (Profundas): Se actualizan lentamente y almacenan los conceptos fundamentales y los conocimientos estables (memoria a largo plazo, o el equivalente a la consolidación offline durante el sueño profundo).
Esta estructura permite que la IA haga lo siguiente:
- Procesar información con diferentes grados de abstracción: La capa superficial procesa las palabras exactas, mientras que la capa profunda consolida el concepto general.
- Integrar conocimiento nuevo sin olvidar el anterior: Los nuevos datos se prueban y estabilizan primero en las capas superficiales. Si se consideran relevantes, solo entonces se integran en los parámetros de las capas más profundas, reorganizando la memoria de forma ordenada, en lugar de borrarlo todo.
El desarrollo de Nested Learning en Google Research involucra a equipos multidisciplinarios que buscan dar respuesta a una de las mayores limitaciones de la inteligencia artificial actual. (Imagen Ilustrativa Infobae)

HOPE: El Módulo de Demostración y los Resultados
Para demostrar que Nested Learning funciona en la práctica, los investigadores desarrollaron un módulo llamado HOPE (por sus siglas en inglés), una arquitectura auto-referencial que utiliza este aprendizaje anidado junto con un sistema de memoria continua.
En las pruebas realizadas y presentadas en NeurIPS 2025, HOPE superó consistentemente a modelos tradicionales muy conocidos (como Transformers y DeltaNet). Específicamente, mostró:
- Menores niveles de perplejidad: Esto es una métrica técnica que indica qué tan "sorprendido" o incierto está el modelo por la información nueva. Menor perplejidad significa que el modelo maneja la nueva información con mayor confianza.
- Mayores tasas de acierto: El modelo fue más preciso en benchmarks de lenguaje y razonamiento continuo.
Esto sugiere que HOPE, gracias al Aprendizaje Anidado, es más capaz de adaptarse y aprender después de su entrenamiento inicial, sin caer en la amnesia artificial.
Este paradigma supera la tradicional dicotomía entre memoria a corto y largo plazo presente en modelos anteriores, al permitir que la inteligencia artificial gestione la abstracción y consolidación de datos de forma más dinámica y precisa. (Imagen Ilustrativa Infobae)
El Futuro de la IA es la Neurociencia
La introducción de Nested Learning es un hito porque marca un cambio de paradigma. Ya no estamos tratando de hacer que la IA sea solo más grande o más rápida; estamos tratando de hacerla más humana en su funcionamiento.
Al basar la arquitectura de la memoria de la IA en los principios de la neurociencia (ondas cerebrales, consolidación online y offline), Google Research no solo mejora la eficiencia y la flexibilidad de la memoria artificial. También abre la puerta a la creación de sistemas mucho más expresivos, adaptativos y fiables.
Si los futuros modelos de IA adoptan el Aprendizaje Anidado, podrás tener asistentes virtuales que realmente te conozcan y recuerden tus preferencias a largo plazo sin necesidad de ser reentrenados constantemente. Este es el camino para que la Inteligencia Artificial se convierta en una herramienta realmente continua y orgánica en nuestra vida diaria.
Nested Learning permite que los modelos computacionales compuestos por múltiples niveles procesen datos con distintos grados de abstracción y escalas temporales, acercando la inteligencia artificial a la capacidad de aprendizaje y memoria del cerebro humano, según concluye Google Research.