Evolució de RAG: De la recuperació augmentada a la inferència d'agents
El 2026, RAG (Generació Augmentada per Recuperació) ha evolucionat de "afegir una barra de cerca a un LLM" a un sistema d'agents complet.
De la recuperació a la inferència
Algú a X va assenyalar un canvi clau:
"Construir un agent d'IA capaç de raonar sobre les cerques, no només de recuperar-les."
Aquesta és la diferència clau de RAG 2.0. El RAG tradicional és un procés de dos passos de "recuperació → generació". El nou paradigma és un bucle d'agent de "recuperació → inferència → acció".
L'agent no introdueix els resultats de la cerca en un prompt, sinó que comprèn la intenció de la cerca, jutja la qualitat de la informació i decideix si necessita més recuperació. Aquesta és una actualització d'"usuari d'eines" a "investigador".
Vector Search 2.0
Algú a X va compartir les últimes novetats:
"Mostrant com construir un sistema Agentic RAG bàsic en uns 10 minuts amb el nou Vector Search 2.0 i ADK."
La cerca vectorial ja no és una simple coincidència de similitud. La nova versió admet:
- Recuperació híbrida (vector + paraules clau)
- Inferència de múltiples salts (una recuperació en desencadena una altra)
- Reordenació dinàmica (ajust dels resultats basat en el context)
Això fa que RAG evolucioni de "trobar documents rellevants" a "construir camins de coneixement".
Aplicacions LLM llestes per a la producció
Algú a X va compilar una llista:
"Col·lecció de totes les aplicacions LLM llestes per a la producció el 2026. awesome-llm-apps conté codi directament copiable i enganxable per a aplicacions RAG, Agent, multimodals i productes AI SaaS."
Això reflecteix la maduresa de la indústria: d'"experiment" a "plantilla". Quan les aplicacions RAG es poden copiar i enganxar, la diferenciació ja no és la tecnologia en si, sinó la qualitat de les dades i la comprensió del negoci.
Més de 100 biblioteques d'eines LLM
Algú a X va compilar:
"Kit d'eines d'enginyeria LLM: llista seleccionada de més de 100 biblioteques i marcs LLM per a l'entrenament, l'ajustament fi, la construcció, l'avaluació, el desplegament, RAG i agents d'IA."
La fragmentació de la cadena d'eines és tant una oportunitat com una càrrega. Hi ha múltiples opcions per a cada enllaç:
- Bases de dades vectorials: Pinecone, Weaviate, Milvus, pgvector...
- Marcs: LangChain, LlamaIndex, Haystack...
- Avaluació: RAGAS, TruLens, Arize...
Com més opcions, més alt és el cost de la decisió.
L'elecció entre RAG i l'ajustament fi
Hi ha projectes a X específicament per a:
"Projectes RAG i d'ajustament fi per a LLM."
Aquesta és la confusió més comuna per a les empreses: quan utilitzar RAG? Quan ajustar finament?
Regles senzilles:
- RAG: el coneixement canvia amb freqüència, necessita citar fonts, sensible als costos
- Ajustament fi: estil/format fix, patró d'inferència específic, sensible a la latència
La majoria de les aplicacions empresarials són més adequades per a RAG, perquè la velocitat d'actualització del coneixement empresarial és molt més ràpida que el cicle d'entrenament del model.
Conclusió
Tres canvis clau per a RAG el 2026:
- De la recuperació a la inferència: l'agent no només recupera, sinó que raona sobre el procés de cerca
- De la plantilla a la producció: el codi de copiar i enganxar està disponible, la diferenciació rau en les dades i el negoci
- De l'elecció a la decisió: hi ha massa eines, la veritable capacitat és triar la combinació adequada
RAG ja no és "afegir un complement a un LLM", sinó construir un sistema intel·ligent amb límits de coneixement. Els límits de coneixement determinen quins problemes pot resoldre l'agent, i la qualitat de la recuperació determina la precisió de la resposta.
Un LLM sense RAG és "intel·ligent però sense coneixement". Un LLM amb RAG és "intel·ligent i amb coneixement". Un LLM amb RAG Agentic és "intel·ligent, amb coneixement i capaç d'aprendre de forma autònoma".
La pregunta és: on són els teus límits de coneixement?





