For nylig har jeg set 2 gode LLM+KG-artikler om kompleks logisk ræsonnement
For nylig har jeg set 2 gode LLM+KG-artikler om kompleks logisk ræsonnement
-
LARK https://arxiv.org/abs/2305.01157 Complex Logical Reasoning over Knowledge Graphs using Large Language Models
-
ROG https://arxiv.org/abs/2512.19092 A Large Language Model Based Method for Complex Logical Reasoning over Knowledge Graphs
I. Udfordringerne ved viden graf ræsonnement
Viden grafer (KG) er den centrale bærer af struktureret viden og står over for tre store smertepunkter:
- Kompleksitet: Kombinations eksplosion af multi-hop ræsonnement, kryds og tværs, negation og andre operationer
- Ufuldstændighed: Støj og mangler er almindelige i virkelige KG'er
- Generalisering: Traditionelle indlejringsmetoder er vanskelige at overføre på tværs af datasæt
Traditionelle løsninger (såsom Query2Box, BetaE) er afhængige af geometriske indlejringsrum og modellerer logiske operationer som vektor-/boksoperationer, men informationstabet er alvorligt ved dyb ræsonnement. Hvordan kan modellen både forstå den logiske struktur og ræsonnere fleksibelt? Fremkomsten af store sprogmodeller (LLM) giver en ny tankegang.
Figur 1: LARKs forespørgselskæde dekomponering og LLM ræsonnement flow. Opdel komplekse multi-operation forespørgsler i enkelt-operation underforespørgsler og løs dem gradvist.
II. Løsning: Arven og udviklingen af to generationer af metoder
LARK (2023) - Banebrydende arbejde
Figur 2: Dekomponeringsstrategier for 14 forespørgselstyper. 3p er opdelt i 3 projektioner, og 3i er opdelt i 3 projektioner + 1 kryds.
Kerneinnovation: Forespørgselsabstraktion + Logisk kædedekomponering
Komponentdesign Forespørgselsabstraktion Udskift enheder/relationer med ID'er for at eliminere hallucinationer og forbedre generaliseringen Nabolagshentning k-hop dybde-først søgning (k=3) for at udtrække relaterede undergrafer Kædedekomponering Multi-operation forespørgsel → Sekvens af enkelt-operation underforespørgsler Sekventiel ræsonnement Cache mellemresultater, logisk ordnet Udskift pladsholdere Vigtig indsigt: LLM er god til simple forespørgsler, og kompleksiteten af forespørgsler forbedres med 20%-33% efter dekomponering.
ROG (2025) - Avanceret version
Arver LARK-rammen og tilføjer en Agent konsensusmekanisme:
ROG = LARK kerne + Multi-Agent samarbejde + Tankekæde forstærkning
Forklaring af forbedringer
Agent design
Intelligent agent = Videnbase + LLM, multi-agent konsensusbeslutningstagning
CoT forbedring
Mere eksplicitte tankekæde prompt skabeloner
Indenlandsk tilpasning
Baseret på ChatGLM+Neo4j, orienteret mod vertikale områder som elektricitet
ROG's dataflow model
Ydelsesspring: På FB15k steg ip-forespørgslen (projektion efter kryds) MRR fra 29,3→62,0, en stigning på 111%!
Tabel 1: FB15k datasæt MRR sammenligning. ROG er førende på alle områder, og forbedringen af sammensatte forespørgsler er mest markant.
III. Etablering af paradigme og fremtidige retninger
To generationer af artikler har i fællesskab bekræftet et paradigme:
"Hentningsforbedring + Forespørgselsdekomponering + LLM ræsonnement" er en effektiv vej til KG kompleks logisk ræsonnement.
Vigtige tendenser:
- Abstraktion er afgørende - Fjernelse af semantisk støj, fokus på logisk struktur
- Dekomponeringsstrategi bestemmer loftet - Kædedekomponering er mere pålidelig end end-to-end
- Modelkapaciteten frigives løbende - Fra Llama2-7B til ChatGLM giver basefremskridt betydelige gevinster
ROG's Agent-mekanisme forbedrer fortolkeligheden, men kerneinnovationen ligger i ingeniørmæssig optimering snarere end teoretisk gennembrud. Fremtidige retninger kan være: dynamiske dekomponeringsstrategier (adaptiv forespørgselskompleksitet), multimodal KG-fusion og større åben domænevalidering.





