Google le está enseñando a la IA a recordar mejor: qué son Titans y MIRAS
Google Research publicó dos papers que atacan el problema de memoria en modelos de IA. Titans y MIRAS proponen formas estructuradas de decidir qué recordar y qué olvidar.
El problema de fondo: la IA procesa bien, pero recuerda mal
Hay un problema que cualquier persona que usa modelos de IA intensivamente ha sentido en algún momento: le das un documento largo, o una conversación extensa, y en algún punto el modelo empieza a "olvidar" lo que dijiste al principio. Responde cosas inconsistentes con el contexto anterior, pierde el hilo, o simplemente ignora información relevante que ya le habías dado.
Google Research acaba de publicar dos papers que atacan ese problema de frente. Se llaman Titans y MIRAS, y juntos representan uno de los avances más interesantes en arquitectura de IA de los últimos meses.
Los modelos de lenguaje modernos son muy buenos analizando la información que tienen directamente frente a ellos. El problema aparece cuando el contexto crece. Mientras más larga sea la conversación, el documento, o el flujo de datos que está procesando el modelo, más difícil se vuelve mantener todos los detalles relevantes sin que el costo computacional se dispare.
Hasta ahora, los modelos resolvían esto de una de dos maneras. La primera es la ventana de atención: el modelo vuelve a revisar texto anterior cada vez que necesita contexto, mirando hacia atrás en la secuencia para decidir qué importa en el paso actual. La segunda es la compresión de estado: el modelo comprime lo que ya procesó en un resumen interno más pequeño para poder avanzar, sacrificando detalle a cambio de eficiencia.
Las dos funcionan, pero las dos se rompen cuando los inputs se vuelven muy largos. Volver a revisar material anterior repetidamente se vuelve computacionalmente muy costoso. Comprimir el contexto anterior en un resumen pequeño significa perder detalles que después resultan importantes.
El problema no es velocidad ni escala. Es memoria. Los sistemas actuales no tienen una forma deliberada de decidir qué recordar y qué olvidar durante el uso. Titans y MIRAS proponen exactamente eso.
Titans: cómo funciona una memoria de largo plazo para IA
Titans es una familia de modelos que introduce un módulo de memoria de largo plazo que aprende activamente mientras procesa información. Para entender cómo funciona, vale la pena conocer sus tres componentes principales.
El primero es lo que los investigadores llaman la métrica de sorpresa. Es básicamente una señal de alerta interna que se activa cuando la información nueva es inesperada o inconsistente con lo que el modelo ya sabe. Matemáticamente, mide la diferencia entre lo que el modelo recuerda actualmente y lo que el nuevo dato le está diciendo. Cuando esa diferencia es grande, la señal dice: esto es importante, guárdalo.
El segundo componente es el momentum, que funciona como un foco sostenido. Una vez que la señal de sorpresa se activa, el modelo no solo registra ese dato puntual, sino que mantiene la atención en la secuencia de información que lo rodea, incluso si los datos siguientes no son individualmente sorprendentes. Así captura el contexto completo de algo importante, no solo el momento exacto donde apareció.
El tercero es un mecanismo de olvido adaptativo. A medida que el modelo procesa secuencias largas, gradualmente libera información vieja o menos útil para hacer espacio a datos nuevos y más relevantes. No es un borrado abrupto sino un proceso gradual y matemáticamente controlado.
La combinación de los tres, qué notar, cuánto registrar, y qué soltar, crea un sistema de memoria que se mantiene útil y relevante sin importar cuánta información procese. En pruebas, Titans logró trabajar con contextos de más de dos millones de tokens manteniendo mayor precisión que los modelos de referencia evaluados. En un benchmark específico llamado BABILong, que requiere razonar sobre hechos dispersos en documentos masivos, Titans superó a modelos mucho más grandes incluyendo GPT-4, con significativamente menos parámetros.
¿Quieres implementar esto con herramientas y soporte?
En My Rank Lab tienes 9 herramientas premium, trainings mensuales y acceso directo a Ana para resolver tus dudas de marketing e IA.
MIRAS: el marco teórico que unifica todo
Mientras Titans resuelve el problema en la práctica, MIRAS da un paso atrás y propone una forma sistemática de diseñar y comparar modelos con memoria.
La idea central de MIRAS es reinterpretar los modelos de secuencia como sistemas de memoria asociativa: módulos que aprenden a asociar puntos de datos entre sí usando un objetivo interno que les dice cómo relacionar diferentes piezas de información. En lugar de ver cada arquitectura de IA como algo radicalmente distinto a las demás, MIRAS las organiza alrededor de cuatro decisiones de diseño: la estructura física de la memoria, el mecanismo que determina cómo se prioriza y vincula la información entrante, el balance entre aprender cosas nuevas y retener el estado anterior, y el método de aprendizaje usado para actualizar la memoria.
Esto importa porque permite a los investigadores construir nuevos modelos con memoria de forma deliberada en lugar de reinventar la rueda con cada arquitectura nueva. MIRAS es esencialmente un lenguaje común para hablar de memoria en IA, y una guía para diseñar la próxima generación de modelos.
Por qué esto importa más allá de los papers académicos
La investigación de Google en Titans y MIRAS tiene implicaciones concretas para cómo van a funcionar los sistemas de IA en el corto y mediano plazo.
La limitación de contexto es uno de los cuellos de botella más frustrantes en el uso práctico de modelos de lenguaje hoy. Cualquier tarea que requiera procesar documentos largos, mantener conversaciones extendidas, analizar bases de datos completas, o seguir hilos de razonamiento complejos se topa con ella. Los avances en memoria de largo plazo son directamente relevantes para esas aplicaciones.
Para el mundo del SEO y el marketing de contenidos, hay una implicación adicional interesante. Modelos con mejor memoria de largo plazo son modelos que pueden mantener más contexto sobre una marca, un sitio, o un conjunto de contenidos mientras los procesan. Eso afecta directamente cómo los sistemas de IA rastrean, entienden y eventualmente citan fuentes de contenido.
Además, Google no publica papers de investigación que no tengan ninguna relación con sus productos. Titans y MIRAS son investigación básica hoy, pero es razonable asumir que las ideas que funcionan en los benchmarks eventualmente van a influir en cómo funcionan los sistemas de búsqueda e IA de Google en producción.
El punto central de ambos papers
Los dos trabajos convergen en una idea que suena simple pero tiene consecuencias técnicas profundas: el camino hacia mejor rendimiento en contextos largos no es solo tener ventanas de atención más grandes o modelos más pesados. Es darle a la IA una forma estructurada de administrar activamente lo que recuerda.
Titans muestra que eso es posible en la práctica. MIRAS muestra cómo diseñarlo de forma sistemática. Juntos, sugieren que la próxima generación de modelos de lenguaje va a recordar mejor, no solo porque van a ser más grandes, sino porque van a ser más inteligentes sobre qué vale la pena recordar.
Mantente al día con lo último en marketing e IA
Recibe recursos, frameworks y herramientas antes que nadie. Sin spam.