Evolucija RAG: Od razširitve z iskanjem do sklepanja agentov

2/17/2026
3 min read

Leta 2026 se je RAG (Retrieval-Augmented Generation – generiranje, razširjeno z iskanjem) razvil iz »dodajanja iskalnega polja LLM-ju« v celoten sistem agentov.

Od iskanja do sklepanja

Nekdo je na X-u izpostavil ključno spremembo:

»Zgraditi AI agenta, ki je sposoben sklepati o iskanju – ne le iskati.«

To je osrednja razlika RAG 2.0. Tradicionalni RAG je dvostopenjski postopek »iskanje → generiranje«. Nova paradigma je cikel agenta »iskanje → sklepanje → ukrepanje«.

Agent ne vtakne rezultatov iskanja v prompt, ampak razume namen iskanja, oceni kakovost informacij in se odloči, ali je potrebno več iskanja. To je nadgradnja od »uporabnika orodja« do »raziskovalca«.

Vector Search 2.0

Nekdo je na X-u delil najnovejši napredek:

»Prikaz, kako z novim Vector Search 2.0 in ADK v približno 10 minutah zgraditi osnovni Agentic RAG sistem.«

Iskanje vektorjev ni več preprosto ujemanje podobnosti. Nova različica podpira:

  • Hibridno iskanje (vektor + ključne besede)
  • Večskokovno sklepanje (eno iskanje sproži drugo)
  • Dinamično prerazvrščanje (prilagajanje rezultatov na podlagi konteksta)

To omogoča, da se RAG razvije od »iskanja ustreznih dokumentov« do »gradnje poti znanja«.

Aplikacije LLM, pripravljene za produkcijo

Nekdo je na X-u sestavil seznam:

»Zbirka vseh aplikacij LLM, pripravljenih za produkcijo, v letu 2026. awesome-llm-apps vsebuje kodo, ki jo je mogoče neposredno kopirati in prilepiti, za RAG, agente, multimodalne aplikacije in AI SaaS izdelke.«

To odraža zrelost industrije: od »eksperimentiranja« do »šablonizacije«. Ko je aplikacije RAG mogoče kopirati in prilepiti, diferenciacija ni več sama tehnologija, ampak kakovost podatkov in razumevanje poslovanja.

100+ knjižnic orodij LLM

Nekdo je na X-u sestavil:

»Komplet orodij za inženiring LLM: Izbran seznam 100+ knjižnic in ogrodij LLM za usposabljanje, fino nastavitev, gradnjo, ocenjevanje, uvajanje, RAG in AI agente.«

Razdrobljenost orodjarne je priložnost in breme. V vsakem koraku je več možnosti:

  • Vektorske baze podatkov: Pinecone, Weaviate, Milvus, pgvector...
  • Okvirji: LangChain, LlamaIndex, Haystack...
  • Ocenjevanje: RAGAS, TruLens, Arize...

Več kot je izbire, višji so stroški odločanja.

Izbira med RAG in fino nastavitvijo

Na X-u obstajajo projekti, namenjeni posebej:

»Projekti RAG in fino nastavitve za LLM.«

To je najpogostejša zmeda podjetij: Kdaj uporabiti RAG? Kdaj fino nastaviti?

Preprosto pravilo:

  • RAG: znanje se pogosto spreminja, zahteva sklicevanje na vire, občutljivost na stroške
  • Fino nastavitev: fiksni slog/format, specifičen način sklepanja, občutljivost na zakasnitev

Večina poslovnih aplikacij je bolj primerna za RAG, ker se poslovno znanje posodablja veliko hitreje kot cikel usposabljanja modela.

Bistvo

Tri ključne spremembe RAG v letu 2026:

  1. Od iskanja do sklepanja: Agent ne išče samo, ampak sklepa o postopku iskanja
  2. Od šablone do produkcije: Na voljo je koda za kopiranje in lepljenje, diferenciacija je v podatkih in poslovanju
  3. Od izbire do odločitve: Preveč orodij, prava sposobnost je izbira prave kombinacije

RAG ni več »dodajanje zunanjega vtičnika LLM-ju«, ampak gradnja inteligentnega sistema z mejami znanja. Meje znanja določajo, katere probleme lahko agent reši, kakovost iskanja pa določa natančnost odgovora.

LLM brez RAG je »inteligenten, a brez znanja«. LLM z RAG je »inteligenten in ima znanje«. LLM z Agentic RAG je »inteligenten, ima znanje in se lahko samostojno uči«.

Vprašanje je: kje so vaše meje znanja?

Published in Technology

You Might Also Like