Эволюция RAG: от расширения поиска до агентского рассуждения
К 2026 году RAG (Retrieval-Augmented Generation, генерация, дополненная поиском) эволюционировала из «просто добавления поисковой строки к LLM» в полноценную агентскую систему.
От поиска к рассуждению
Кто-то в X (ранее Twitter) указал на ключевой сдвиг:
«Создание AI Agent, способного рассуждать о поиске, а не просто извлекать информацию».
Это ключевое отличие RAG 2.0. Традиционный RAG — это двухэтапный процесс «поиск → генерация». Новая парадигма — это агентский цикл «поиск → рассуждение → действие».
Agent не просто вставляет результаты поиска в prompt, а понимает намерение поиска, оценивает качество информации, решает, нужны ли дополнительные поиски. Это апгрейд от «пользователя инструментов» до «исследователя».
Vector Search 2.0
Кто-то в X поделился последними достижениями:
«Демонстрация того, как построить базовую Agentic RAG систему с помощью нового Vector Search 2.0 и ADK примерно за 10 минут».
Векторный поиск больше не является простым сопоставлением по сходству. Новая версия поддерживает:
- Гибридный поиск (векторный + ключевые слова)
- Многошаговое рассуждение (один поиск запускает другой)
- Динамическая пересортировка (корректировка результатов на основе контекста)
Это позволяет RAG эволюционировать от «поиска релевантных документов» к «построению пути знаний».
Готовые к производству LLM приложения
Кто-то в X составил список:
«Коллекция всех готовых к производству LLM приложений 2026 года. awesome-llm-apps содержит код, который можно напрямую копировать и вставлять для RAG, Agent, мультимодальных приложений и AI SaaS продуктов».
Это отражает зрелость отрасли: от «экспериментов» к «шаблонизации». Когда RAG приложения можно копировать и вставлять, дифференциация заключается не в самой технологии, а в качестве данных и понимании бизнеса.
100+ LLM инструментальных библиотек
Кто-то в X собрал:
«Набор инструментов LLM Engineering: подборка из 100+ LLM библиотек и фреймворков для обучения, тонкой настройки, построения, оценки, развертывания, RAG и AI Agent».
Фрагментация цепочки инструментов является одновременно и возможностью, и бременем. На каждом этапе есть несколько вариантов:
- Векторные базы данных: Pinecone, Weaviate, Milvus, pgvector...
- Фреймворки: LangChain, LlamaIndex, Haystack...
- Оценка: RAGAS, TruLens, Arize...
Чем больше выбор, тем выше стоимость принятия решений.
Выбор между RAG и тонкой настройкой
В X есть проекты, посвященные:
«Проекты RAG и тонкой настройки LLM».
Это самая распространенная проблема у предприятий: когда использовать RAG? Когда выполнять тонкую настройку?
Простое правило:
- RAG: знания часто меняются, требуется ссылка на источники, чувствительность к стоимости
- Тонкая настройка: фиксированный стиль/формат, специфическая модель рассуждений, чувствительность к задержке
Большинство корпоративных приложений больше подходят для RAG, потому что бизнес-знания обновляются гораздо быстрее, чем цикл обучения модели.
Итог
Три ключевых изменения в RAG в 2026 году:
- От поиска к рассуждению: Agent не просто ищет, а рассуждает о процессе поиска
- От шаблона к производству: доступен код для копирования и вставки, дифференциация в данных и бизнесе
- От выбора к решению: слишком много инструментов, настоящая способность — выбрать подходящую комбинацию
RAG больше не «дополнение к LLM», а построение интеллектуальной системы со знаниевыми границами. Границы знаний определяют, какие проблемы может решить Agent, качество поиска определяет точность ответа.
LLM без RAG — это «интеллект без знаний». LLM с RAG — это «интеллект со знаниями». LLM с Agentic RAG — это «интеллект со знаниями и способностью к самостоятельному обучению».
Вопрос в том: где находятся ваши границы знаний?





