Evoluce RAG: Od rozšíření vyhledávání k agentnímu usuzování
V roce 2026 se RAG (Retrieval-Augmented Generation, generování rozšířené o vyhledávání) vyvinulo z pouhého „přidání vyhledávacího pole k LLM“ do kompletního agentního systému.
Od vyhledávání k usuzování
Někdo na X upozornil na klíčový posun:
„Vytvořit AI Agenta, který je schopen usuzovat o vyhledávání – nejen vyhledávat.“
To je hlavní rozdíl RAG 2.0. Tradiční RAG je dvoukrokový proces „vyhledávání → generování“. Nové paradigma je agentní smyčka „vyhledávání → usuzování → akce“.
Agent nevkládá výsledky vyhledávání do promptu, ale rozumí záměru vyhledávání, posuzuje kvalitu informací a rozhoduje, zda je potřeba více vyhledávání. To je upgrade z „uživatele nástroje“ na „výzkumníka“.
Vector Search 2.0
Někdo na X sdílel nejnovější pokroky:
„Ukázka, jak pomocí nového Vector Search 2.0 a ADK vytvořit základní Agentic RAG systém za přibližně 10 minut.“
Vektorové vyhledávání již není jednoduché porovnávání podobnosti. Nová verze podporuje:
- Hybridní vyhledávání (vektory + klíčová slova)
- Vícekrokové usuzování (jedno vyhledávání spouští další)
- Dynamické přeřazování (úprava výsledků na základě kontextu)
To posouvá RAG od „hledání relevantních dokumentů“ k „budování znalostních cest“.
Produkčně připravené LLM aplikace
Někdo na X sestavil seznam:
„Sbírka všech produkčně připravených LLM aplikací v roce 2026. awesome-llm-apps obsahuje kód, který lze přímo kopírovat a vkládat pro RAG, Agenty, multimodální aplikace a AI SaaS produkty.“
To odráží vyspělost odvětví: od „experimentů“ k „šablonám“. Když lze RAG aplikace kopírovat a vkládat, diferenciace již není samotná technologie, ale kvalita dat a obchodní porozumění.
100+ LLM knihoven nástrojů
Někdo na X sestavil:
„Sada nástrojů pro LLM inženýrství: 100+ vybraných seznamů LLM knihoven a frameworků pro trénování, doladění, budování, hodnocení, nasazení, RAG a AI Agenty.“
Fragmentace řetězce nástrojů je příležitost i zátěž. Každý krok má několik možností:
- Vektorové databáze: Pinecone, Weaviate, Milvus, pgvector...
- Frameworky: LangChain, LlamaIndex, Haystack...
- Hodnocení: RAGAS, TruLens, Arize...
Čím více možností, tím vyšší náklady na rozhodování.
Volba mezi RAG a doladěním
Na X existuje projekt zaměřený na:
„RAG a doladění projektů pro LLM.“
To je nejčastější zmatek podniků: Kdy použít RAG? Kdy doladit?
Jednoduché pravidlo:
- RAG: Znalosti se často mění, je potřeba citovat zdroje, citlivost na náklady
- Doladění: Pevný styl/formát, specifický režim usuzování, citlivost na latenci
Většina podnikových aplikací je vhodnější pro RAG, protože obchodní znalosti se aktualizují mnohem rychleji než cyklus trénování modelu.
Závěr
Tři klíčové změny RAG v roce 2026:
- Od vyhledávání k usuzování: Agent nevyhledává pouze, ale usuzuje o procesu vyhledávání
- Od šablony k produkci: K dispozici je kód pro kopírování a vkládání, diferenciace je v datech a obchodu
- Od výběru k rozhodování: Příliš mnoho nástrojů, skutečná schopnost je vybrat správnou kombinaci
RAG již není „přidání pluginu k LLM“, ale budování inteligentního systému s hranicemi znalostí. Hranice znalostí určují, jaké problémy může Agent řešit, a kvalita vyhledávání určuje přesnost odpovědí.
LLM bez RAG je „inteligentní, ale bez znalostí“. LLM s RAG je „inteligentní a znalý“. LLM s Agentic RAG je „inteligentní, znalý a schopný se autonomně učit“.
Otázka zní: Kde jsou vaše hranice znalostí?





