
La inteligencia artificial enfrenta uno de sus mayores desafíos: lograr aprendizaje continuo y retener información a largo plazo, de manera similar al funcionamiento del cerebro humano. Para abordar esta limitación, Google Research ha presentado Nested Learning (Aprendizaje Anidado), un nuevo paradigma de aprendizaje automático inspirado en la dinámica de las ondas cerebrales.
Este enfoque busca dotar a los modelos de IA de una memoria más robusta y la capacidad de incorporar conocimientos de forma sostenida. La propuesta fue presentada en la 39ª Conferencia sobre Sistemas de Procesamiento de Información Neural (NeurIPS 2025) y podría marcar un antes y un después en el desarrollo de sistemas de IA más adaptativos y eficientes.
A pesar de los avances en modelos de lenguaje y arquitecturas profundas, la IA actual sigue siendo esencialmente estática tras su entrenamiento inicial. Los grandes modelos de lenguaje solo pueden ejecutar tareas aprendidas durante la fase de preentrenamiento, sin incorporar nuevas habilidades o conocimientos de manera continua.

Según Google Research, esta limitación se asemeja a la amnesia anterógrada, una condición neurológica en la que una persona no puede formar nuevos recuerdos a largo plazo, quedando su experiencia restringida al presente inmediato y a recuerdos previos al inicio del trastorno. De forma análoga, los modelos solo pueden operar con la información contenida en su ventana de contexto o en los parámetros almacenados antes del final del preentrenamiento, sin capacidad para consolidar nueva información en su memoria a largo plazo.
El cerebro humano destaca por su eficiencia en el aprendizaje continuo, una capacidad atribuida a la neuroplasticidad y a la consolidación de la memoria en diferentes fases.
Google Research explica que la formación de la memoria a largo plazo implica al menos dos procesos complementarios: una consolidación rápida u “online”, que estabiliza los recuerdos poco después de su formación, y una consolidación “offline”, que reorganiza y refuerza la memoria durante el sueño mediante la interacción de ondas cerebrales de distintas frecuencias.

En los modelos de IA actuales, la ausencia de mecanismos equivalentes a estas fases limita su capacidad para almacenar y actualizar conocimientos de manera duradera.
Nested Learning, desarrollado por Ali Behrouz, Meisam Razaviyayn, Peiling Zhong y Vahab Mirrokni en Google Research, propone una arquitectura de aprendizaje automático que representa el modelo como un sistema de problemas de optimización anidados, cada uno con su propio flujo de contexto y frecuencia de actualización.
Esta estructura permite que los modelos procesen y almacenen información en diferentes niveles y escalas temporales, replicando la jerarquía de procesamiento de las ondas cerebrales humanas. Según los investigadores, Nested Learning generaliza la visión tradicional de la memoria en IA, superando la dicotomía entre memoria a corto y largo plazo y permitiendo una gestión más flexible y eficiente del conocimiento.

El enfoque de Nested Learning se basa en la idea de que cada componente del modelo de IA puede actualizarse a diferentes frecuencias, de manera análoga a las distintas ondas cerebrales que intervienen en la consolidación de la memoria.
Google Research detalla que, en este paradigma, los optimizadores y las redes neuronales funcionan como sistemas de memoria asociativa que comprimen y almacenan información relevante en sus parámetros. Esta organización multinivel permite que el modelo procese datos con distintos grados de abstracción y en diferentes escalas de tiempo, facilitando la integración de nueva información sin perder conocimientos previos.
Para demostrar la eficacia de Nested Learning, Google Research ha desarrollado el módulo HOPE, una arquitectura auto-referencial que combina el aprendizaje anidado con un sistema de memoria continua.
En pruebas de modelado de lenguaje y tareas de razonamiento, HOPE ha superado a modelos tradicionales como Transformers, DeltaNet y Titans, tanto en precisión como en capacidad de aprendizaje continuo.

Los resultados, presentados en la conferencia NeurIPS 2025, muestran que HOPE logra menores niveles de perplejidad y mayores tasas de acierto en benchmarks de lenguaje y razonamiento, lo que sugiere un avance relevante en la capacidad de los modelos para adaptarse y aprender de manera sostenida.
La introducción de Nested Learning por parte de Google Research abre nuevas posibilidades para el desarrollo de sistemas de IA capaces de aprender y adaptarse de forma continua, superando las limitaciones de memoria y actualización que afectan a los modelos actuales.
Este enfoque, inspirado en la neurociencia, no solo mejora la eficiencia y flexibilidad de la memoria en IA, sino que también sienta las bases para arquitecturas más expresivas y adaptativas, con potencial impacto en áreas como el procesamiento del lenguaje, la visión por computadora y la robótica.
Nested Learning permite que los modelos computacionales compuestos por múltiples niveles procesen datos con distintos grados de abstracción y escalas temporales, acercando la inteligencia artificial a la capacidad de aprendizaje y memoria del cerebro humano, según concluye Google Research.
Últimas Noticias
Diferencias entre Black Friday y Cyber Monday: claves que los distinguen
Si bien ambos eventos ofrecen promociones en diversas categorías, en sus primeras ediciones el Cyber Monday estuvo especialmente enfocado en el área de tecnología

Por primera vez en 14 años, Apple volverá a ser el mayor fabricante de smartphones del mundo
Este hito, según los analistas, se debe principalmente al éxito en ventas de la serie iPhone 17
Nano Banana llega a Chrome: cómo usar este generador de imágenes en el navegador de Google
La función experimental transforma la barra de direcciones en una herramienta creativa y elimina la necesidad de recurrir a plataformas externas

Revolución emocional, robots y soledad en la era de la IA: predicciones del CTO de Amazon, Werner Vogels
El avance acelerado de la computación cuántica y la inteligencia artificial exige nuevas habilidades, impulsa la creación de empleos y obliga a empresas y gobiernos a prepararse para desafíos inéditos

HP anuncia recorte de hasta 6.000 empleados: la IA tendrá a cargo varias funciones
La reestructuración de la compañía tecnológica busca optimizar procesos y responder a la presión competitiva



