PageIndex Dybdegående Analyse: Vektorløs Ræsonnerende RAG, der lader AI læse dokumenter som menneskelige eksperter

2/15/2026
5 min read

PageIndex er et vektorløst, ræsonnerende RAG-framework (GitHub 14.8k+ stjerner), der er open source af Vectify AI-teamet. Det konverterer lange dokumenter til et hierarkisk træindeks og bruger LLM til at udføre ræsonnerende søgning på træet, hvilket opnår en nøjagtighed på 98,7% på FinanceBench finansielle dokument spørgsmål og svar benchmark.

1. Baggrund: De fem smertepunkter ved traditionel RAG

RAG er blevet de facto standard for store modelapplikationer. Mainstream-løsninger opdeler dokumenter i chunks af fast længde i forbehandlingsfasen og konverterer dem til vektorer gennem embedding-modellen, som gemmes i en vektor database; ved forespørgsler foretages den samme embedding af brugerens spørgsmål, og Top-K-resultaterne kaldes tilbage gennem vektorlighedssøgning og sammenkædes som LLM's inputkontekst.

Dette flow er effektivt i korte tekster og generelle scenarier, men i scenarier med professionelle lange dokumenter (finansielle rapporter, love og regler, tekniske manualer osv.) afsløres fem grundlæggende problemer:

1) Lighed ≠ Relevans. Vektorsøgning antager, at "den semantisk mest lignende tekstblok = den mest relevante svarkilde", men i professionelle dokumenter deler et stort antal afsnit omtrentlig semantik, men er enormt forskellige i vigtige detaljer.

2) Hård opdeling ødelægger kontekstuel integritet. Opdeling af dokumenter i faste vinduer på 512 eller 1024 tokens vil afkorte sætninger, afsnit eller endda hele logiske afsnit, hvilket fører til tab af vigtig kontekst.

3) Forskydning mellem forespørgselsintention og vidensrum. Brugerens forespørgsel udtrykker en "intention" snarere end "indhold", og query embedding og document embedding er i forskellige semantiske rum.

4) Kan ikke håndtere henvisninger i dokumentet. Professionelle dokumenter indeholder ofte henvisninger som "se bilag G" og "se tabel 5.3". Der er ingen semantisk lighed mellem disse henvisninger og det indhold, der henvises til, og vektorsøgning kan ikke matche dem.

5) Uafhængige forespørgsler kan ikke udnytte dialoghistorikken. Hver søgning behandler forespørgslen som en uafhængig anmodning og kan ikke kombinere den tidligere dialogkontekst til at foretage gradvis søgning.

2. PageIndex Samlet Arkitektur

PageIndex er et vektorløst (Vectorless), ræsonneringsbaseret (Reasoning-based) RAG-framework. Dens kerneidé er: I stedet for at lade modellen foretage omtrentlig matching i vektorrummet, er det bedre at lade modellen ræsonnere over den strukturerede repræsentation af dokumentet – at beslutte "hvor man skal kigge" i stedet for blot "hvad der ser ens ud".

PageIndex simulerer, hvordan menneskelige eksperter læser lange dokumenter: først gennemse indholdsfortegnelsen, bestem relevante kapitler baseret på spørgsmålet, og gå gradvist dybere, indtil du finder målindholdet. Denne proces opnås i to trin:

  • Opbyg et træstrukturindeks: Konverter PDF/Markdown-dokumenter til et hierarkisk JSON-træ, svarende til en "indholdsfortegnelse optimeret til LLM"
  • Ræsonnerende træsøgning: LLM udfører ræsonnerende navigation på træet baseret på spørgsmålet, lokaliserer relevante noder, udtrækker indhold og genererer svar

3. Nedbrydning af Kernemoduler

3.1 PDF-behandlingspipeline

PageIndex's PDF-behandlingspipeline er arrangeret af funktionen tree_parser(). Kerneprocessen omfatter: katalogdetektion (tre tilstandsforgreninger), supplerende forord, konvertering af flad liste til hierarkisk træ, rekursiv underopdeling af store noder, berigelse af noder og JSON-træstrukturoutput.

Tre behandlingstilstande:

  • process_toc_with_page_numbers (har indholdsfortegnelse + har sidetal): Brug LLM til at konvertere den originale indholdsfortegnelse til struktureret JSON og kortlægge logiske sidetal til fysiske sidetal
  • process_no_toc (ingen indholdsfortegnelse): LLM udleder direkte den hierarkiske struktur fra hovedteksten
  • process_toc_no_page_numbers (har indholdsfortegnelse, men ingen sidetal): Udtræk struktur og udled derefter supplerende fysiske sidetal

3.2 Datamodel for Træstruktur

Hver node i træet indeholder: title, node_id, start_index, end_index, summary, prefix_summary, text, nodes (array af undernoder) og andre felter.

3.3 Ræsonnerende Søgemekanisme

Søgefasen er ikke afhængig af nogen vektorberegninger. LLM modtager brugerens spørgsmål og dokumenttræstrukturen og ræsonnerer baseret på nodetitler og resuméer for at outputte deres "tænkeproces" og en liste over relaterede node_id'er. Systemet udtrækker derefter den komplette tekst for de tilsvarende noder fra node_map baseret på node_id, sammenkæder dem som kontekst og giver dem til LLM til at generere det endelige svar.

4. Kerne Design Højdepunkter

  • Vektorløs arkitektur: Intet behov for embedding-modeller og vektor databaser, hvilket reducerer infrastruktur omkostninger og forenkler implementeringen
  • Bevarer dokumentets naturlige struktur: Organiser indhold efter dokumentets iboende kapitler/underkapitler/underafsnit for at undgå tab af kontekst på tværs af chunks
  • Søgbarhedens forklarbarhed: Hver søgning returnerer en komplet ræsonneringskæde, hvilket har klare fordele i scenarier med høje krav til overholdelse

5. Evaluering Resultater

Mafin 2.5 er et finansielt dokument spørgsmål og svar system baseret på PageIndex. Ydelsen på FinanceBench (finansiel dokument QA benchmarktest) når 98,7% nøjagtighed, hvilket er langt højere end Perplexity (45%) og GPT-4o (31%).

6. Anvendelige Scenarier

Velegnet til: Lange dokumenter med en klar hierarkisk struktur (finansielle rapporter, regler, lærebøger, manualer), med en længde på snesevis til hundredvis af sider

Ikke egnet til: Dokumenter uden struktureret indhold, scannede dokumenter, der ikke er OCR-behandlet, dokumenter, der primært består af tabeller/diagrammer, scenarier, der kræver realtidsrespons på millisekundniveau

7. Konklusion

PageIndex's kernebidrag ligger i at foreslå et praktisk vektorløst RAG-paradigme: Brug dokumentets naturlige struktur til at opbygge et træindeks, og brug LLM-ræsonnement til at erstatte vektorlighedssøgning. Denne løsning yder fremragende i professionelle lange dokumentscenarier med en klar hierarkisk struktur, og forklarbarheden og revisionsmulighederne er også markant bedre end traditionelle løsninger.

Published in Technology

You Might Also Like