Обзор RAG и Agent&LLM памяти на 107 страницах

2/15/2026
4 min read

Сегодня я поделюсь 107-страничным техническим обзором «Память в эпоху AI агентов: Обзор форм, функций и динамики» от Жэньминьского университета Китая, Фуданьского университета, Пекинского университета и других.

Адрес проекта: https://github.com/Shichun-Liu/Agent-Memory-Paper-List

Адрес статьи: https://arxiv.org/pdf/2512.13564

За последние два года мы стали свидетелями поразительной эволюции больших языковых моделей (LLM) в AI агентов (AI Agents). От Deep Research до разработки программного обеспечения, от научных открытий до многоагентного сотрудничества, эти агенты, основанные на базовых моделях, расширяют границы искусственного общего интеллекта (AGI).

Но возникает ключевой вопрос: как сделать так, чтобы агенты могли непрерывно учиться и адаптироваться, если статические параметры LLM не могут быть быстро обновлены?

Ответ — память (Memory).

"Память — это ключевая способность, которая превращает статические LLM в агентов, способных непрерывно адаптироваться посредством взаимодействия с окружающей средой."

Рисунок 1 демонстрирует единую структуру классификации, предложенную в статье, которая организует память агентов по трем измерениям: формы (Forms), функции (Functions), динамика (Dynamics), и сопоставляет репрезентативные системы с этой системой классификации.

В статье также четко разграничиваются Agent Memory и несколько тесно связанных, но существенно различных концепций: LLM память, генерация, дополненная поиском (RAG) и контекстная инженерия. Хотя все они связаны с хранением и использованием информации, существуют ключевые различия в целях, механизмах и сценариях применения.

Технологии памяти агентов

  • Self-Evolving Memory: Memento, H2R

  • Multimodal Memory: Ella, ViloMem, M3-Agent

  • Latent Memory: MemoryLLM, M+, MemGen

  • Parametric Memory: Retroformer, Early experience

  • RL-enabled Memory: MemAgent, RMM, MemSearcher, MEM1, Mem-alpha, Memory-R1

Память агентов vs. RAG

Технологии, связанные с RAG:

  • Modular RAG: FlashRAG, ComposeRAG

  • Graph RAG: LightRAG, HippoRAG

  • Agentic RAG: PlanRAG, Self-RAG

RAG и память агентов включают извлечение информации из внешнего хранилища для расширения возможностей модели, но между ними существуют существенные различия в философии проектирования:

ХарактеристикаRAGПамять агентов
Основная цельПредоставление релевантной справочной информации для текущего запросаНепрерывное обучение и адаптивное поведение во времени
Источник информацииОбычно статические, предварительно созданные базы знанийДинамически генерируемая, персонализированная информация из собственного опыта взаимодействия агента
Триггер поискаПассивно запускается запросом пользователяАктивно решается агентом, когда и что искать
Обновление информацииБаза знаний обычно обновляется в автономном режимеОбновляется онлайн, непрерывно и выборочно
Цикл обратной связиНет прямого механизма обратной связиФормирует замкнутый цикл с взаимодействием с окружающей средой

Ключевое различие: RAG — это инструмент расширения знаний, а память агентов — это механизм обучения. RAG отвечает на вопрос «Что я знаю?», а память агентов отвечает на вопрос «Что я узнал?».

Память агентов vs. LLM память

Технологии, связанные с LLM памятью:

  • Attention KV management: Mixture-of-Memory

  • Long context processing: Mamba, Memformer, MoA, Sparseformer, NSA

ИзмерениеLLM памятьПамять агентов
ОпределениеЗнания, интернализованные в параметрах модели, или временная информация в контекстном окнеВнешняя система, поддерживающая непрерывное взаимодействие агента с окружающей средой, обучение между задачами и долгосрочную адаптацию
Временной масштабОграничен данными предварительного обучения или текущим контекстом диалогаОхватывает несколько задач, сеансов, поддерживает обучение на протяжении всей жизни
Возможность обновленияОбновление параметров дорогостоящее, контекстная информация легко теряетсяПоддерживает эффективное, выборочное динамическое обновление и эволюцию
АктивностьПассивно отвечает на запросыАктивно решает, какую информацию хранить, обновлять и извлекать
Связь с окружающей средойНет прямого взаимодействия с окружающей средойГлубоко интегрирована с обратной связью от окружающей среды, поддерживает интерактивное обучение

Ключевое различие: LLM память по сути статична (параметры фиксированы) или недолговечна (контекст ограничен), а память агентов динамична, постоянна и связана с окружающей средой.

Память агентов vs. Контекстная инженерия

Технологии, связанные с контекстной инженерией:

  • Tool-integrated reasoning: ReTool, ToolLLM, Toolformer, VTool-R1, ToRL

  • Tool selection: AutoTool, VisTA

  • Communication protocol: ANP, A2A, MCP, Agora

АспектКонтекстная инженерияПамять агентов
ВниманиеОптимизация ввода для одного раунда или текущей задачиПостоянство и использование информации в нескольких раундах и задачах
Временное измерениеТекущий сеансДлительная история
Выбор информацииИскусственный дизайн или эвристические правилаАвтоматизированные механизмы формирования, эволюции и извлечения
Управление состояниемНет постоянного состоянияЯвно поддерживает эволюционирующее состояние памяти

Ключевое различие: Контекстная инженерия — это техника оптимизации подсказок, а память агентов — это система управления состоянием. Первая фокусируется на «Что вводить сейчас», а вторая — на «Что запомнилось в прошлом и как это влияет на настоящее и будущее».

Published in Technology

You Might Also Like

📝
Technology

Claude Code Buddy 修改指南:如何获得闪光传说级宠物

Claude Code Buddy 修改指南:如何获得闪光传说级宠物 2026年4月1日,Anthropic 在 Claude Code 2.1.89 版本中悄然上线了一个彩蛋功能——/buddy 宠物系统。在终端输入 /buddy 后,一...

Obsidian выпустил Defuddle, подняв Obsidian Web Clipper на новый уровеньTechnology

Obsidian выпустил Defuddle, подняв Obsidian Web Clipper на новый уровень

Obsidian выпустил Defuddle, подняв Obsidian Web Clipper на новый уровень Мне всегда нравилась основная идея Obsidian: п...

OpenAI внезапно объявила о "тройном объединении": браузер + программирование + ChatGPT, внутреннее признание ошибок прошлого годаTechnology

OpenAI внезапно объявила о "тройном объединении": браузер + программирование + ChatGPT, внутреннее признание ошибок прошлого года

OpenAI внезапно объявила о "тройном объединении": браузер + программирование + ChatGPT, внутреннее признание ошибок прош...

2026, больше не заставляйте себя "дисциплинироваться"! Сделайте эти 8 простых вещей, и здоровье придет само собойHealth

2026, больше не заставляйте себя "дисциплинироваться"! Сделайте эти 8 простых вещей, и здоровье придет само собой

2026, больше не заставляйте себя "дисциплинироваться"! Сделайте эти 8 простых вещей, и здоровье придет само собой Новый...

Тем мамам, которые стараются похудеть, но не могут, определенно стоит задуматься здесьHealth

Тем мамам, которые стараются похудеть, но не могут, определенно стоит задуматься здесь

Тем мамам, которые стараются похудеть, но не могут, определенно стоит задуматься здесь Март уже почти прошел, как у вас...

📝
Technology

AI Browser 24小时稳定运行指南

AI Browser 24小时稳定运行指南 Этот учебник описывает, как создать стабильную, долгосрочную среду для AI браузера. Подходит для A...