Una revisión de 107 páginas sobre RAG y la memoria de Agent & LLM
Hoy comparto una revisión técnica de 107 páginas de la Universidad Renmin de China, la Universidad de Fudan, la Universidad de Pekín, etc., titulada "Memory in the Age of AI Agents: A Survey Forms, Functions and Dynamics" (Memoria en la era de los agentes de IA: una encuesta sobre formas, funciones y dinámicas).
Dirección del proyecto: https://github.com/Shichun-Liu/Agent-Memory-Paper-List
Dirección del artículo: https://arxiv.org/pdf/2512.13564

En los últimos dos años, hemos sido testigos de la asombrosa evolución de los modelos de lenguaje grandes (LLM) a los agentes de IA (AI Agents). Desde la investigación profunda hasta la ingeniería de software, desde el descubrimiento científico hasta la colaboración multiagente, estos agentes basados en modelos fundamentales están impulsando los límites de la inteligencia artificial general (AGI).
Pero surge una pregunta central: Los parámetros estáticos de LLM no se pueden actualizar rápidamente, ¿cómo hacer que los agentes tengan la capacidad de aprender y adaptarse continuamente?
La respuesta es: Memoria (Memory).
"La memoria es la capacidad clave para transformar los LLM estáticos en agentes inteligentes capaces de adaptarse continuamente a través de la interacción con el entorno."

Figure 1 muestra el marco de clasificación unificado propuesto en el artículo, que organiza la memoria del agente en tres dimensiones: Formas (Forms), Funciones (Functions) y Dinámicas (Dynamics), y asigna sistemas representativos a este sistema de clasificación.

El artículo también distingue claramente entre Agent Memory y varios conceptos estrechamente relacionados pero esencialmente diferentes: LLM memory, Retrieval-Augmented Generation (RAG) y Context Engineering. Aunque todos están relacionados con el almacenamiento y la utilización de información, existen diferencias clave en los objetivos, los mecanismos y los escenarios de aplicación.
Tecnologías de memoria de agentes
-
Self-Evolving Memory: Memento, H2R
-
Multimodal Memory: Ella, ViloMem, M3-Agent
-
Latent Memory: MemoryLLM, M+, MemGen
-
Parametric Memory: Retroformer, Early experience
-
RL-enabled Memory: MemAgent, RMM, MemSearcher, MEM1, Mem-alpha, Memory-R1
Agent Memory vs. RAG
Tecnologías relacionadas con RAG:
-
Modular RAG: FlashRAG, ComposeRAG
-
Graph RAG: LightRAG, HippoRAG
-
Agentic RAG: PlanRAG, Self-RAG
RAG y Agent Memory implican la recuperación de información del almacenamiento externo para mejorar las capacidades del modelo, pero existen diferencias esenciales en la filosofía de diseño entre los dos:
CaracterísticaRAGAgent Memory Objetivo principalProporcionar soporte de conocimiento de fondo relevante para la consulta actualAprendizaje continuo y comportamiento adaptativo a lo largo del tiempo Fuente de informaciónGeneralmente bases de conocimiento estáticas y preconstruidasInformación personalizada generada dinámicamente a partir de la propia experiencia de interacción del agente Disparador de recuperaciónActivado pasivamente por la consulta del usuarioEl agente decide activamente cuándo y qué recuperar Actualización de informaciónLa base de conocimiento generalmente se actualiza fuera de líneaActualización en línea, continua y selectiva Bucle de retroalimentaciónSin mecanismo de retroalimentación directaForma un bucle cerrado con la interacción ambiental
Diferencia clave: RAG es una herramienta de expansión de conocimiento, mientras que Agent Memory es un mecanismo de aprendizaje. RAG responde "¿Qué sé?", Agent Memory responde "¿Qué he aprendido?".
Agent Memory vs. LLM Memory
Tecnologías relacionadas con LLM Memory:
-
Attention KV management: Mixture-of-Memory
-
Long context processing: Mamba, Memformer, MoA, Sparseformer, NSA
DimensiónLLM MemoryAgent Memory DefiniciónConocimiento internalizado en los parámetros del modelo, o información temporal en la ventana de contextoSistema externo que soporta la interacción continua del agente con el entorno, el aprendizaje entre tareas y la adaptación a largo plazo Escala de tiempoLimitado a datos de preentrenamiento o contexto de conversación actualAbarca múltiples tareas, sesiones y soporta el aprendizaje de por vida ActualizabilidadLa actualización de parámetros es costosa, la información de contexto es volátilSoporta la actualización y evolución dinámica, eficiente y selectiva ProactividadResponde pasivamente a las consultasDecide proactivamente qué información almacenar, actualizar y recuperar Acoplamiento con el entornoSin interacción directa con el entornoProfundamente integrado con la retroalimentación del entorno, soporta el aprendizaje interactivo
Diferencia clave: LLM Memory es esencialmente estática (parámetros fijos) o transitoria (contexto limitado), mientras que Agent Memory es dinámica, persistente y acoplada al entorno.
Agent Memory vs. Context Engineering
Tecnologías relacionadas con Context Engineering:
-
Tool-integrated reasoning: ReTool, ToolLLM, Toolformer, VTool-R1, ToRL
-
Tool selection: AutoTool, VisTA
-
Communication protocol: ANP, A2A, MCP, Agora
AspectoContext EngineeringAgent Memory EnfoqueOptimización de la entrada para una sola ronda o tarea actualPersistencia y utilización de información a través de múltiples rondas y tareas Dimensión temporalSesión actualHistorial a largo plazo Selección de informaciónReglas diseñadas manualmente o heurísticasMecanismos automatizados de formación, evolución y recuperación Gestión de estadoSin estado persistenteMantenimiento explícito del estado de memoria evolutivo
Diferencia clave: Context Engineering es una técnica de optimización de prompts, mientras que Agent Memory es un sistema de gestión de estado. El primero se centra en "¿Qué se introduce ahora?", el segundo se centra en "¿Qué se recordó en el pasado y cómo afecta al presente y al futuro?".





