For nylig har jeg set 2 gode LLM+KG-artikler om kompleks logisk ræsonnement

2/15/2026
3 min read

For nylig har jeg set 2 gode LLM+KG-artikler om kompleks logisk ræsonnement

  1. LARK https://arxiv.org/abs/2305.01157 Complex Logical Reasoning over Knowledge Graphs using Large Language Models

  2. ROG https://arxiv.org/abs/2512.19092 A Large Language Model Based Method for Complex Logical Reasoning over Knowledge Graphs

I. Udfordringerne ved viden graf ræsonnement

Viden grafer (KG) er den centrale bærer af struktureret viden og står over for tre store smertepunkter:

  • Kompleksitet: Kombinations eksplosion af multi-hop ræsonnement, kryds og tværs, negation og andre operationer
  • Ufuldstændighed: Støj og mangler er almindelige i virkelige KG'er
  • Generalisering: Traditionelle indlejringsmetoder er vanskelige at overføre på tværs af datasæt

Traditionelle løsninger (såsom Query2Box, BetaE) er afhængige af geometriske indlejringsrum og modellerer logiske operationer som vektor-/boksoperationer, men informationstabet er alvorligt ved dyb ræsonnement. Hvordan kan modellen både forstå den logiske struktur og ræsonnere fleksibelt? Fremkomsten af store sprogmodeller (LLM) giver en ny tankegang.

Figur 1: LARKs forespørgselskæde dekomponering og LLM ræsonnement flow. Opdel komplekse multi-operation forespørgsler i enkelt-operation underforespørgsler og løs dem gradvist.

II. Løsning: Arven og udviklingen af to generationer af metoder

LARK (2023) - Banebrydende arbejde

Figur 2: Dekomponeringsstrategier for 14 forespørgselstyper. 3p er opdelt i 3 projektioner, og 3i er opdelt i 3 projektioner + 1 kryds.

Kerneinnovation: Forespørgselsabstraktion + Logisk kædedekomponering

Komponentdesign Forespørgselsabstraktion Udskift enheder/relationer med ID'er for at eliminere hallucinationer og forbedre generaliseringen Nabolagshentning k-hop dybde-først søgning (k=3) for at udtrække relaterede undergrafer Kædedekomponering Multi-operation forespørgsel → Sekvens af enkelt-operation underforespørgsler Sekventiel ræsonnement Cache mellemresultater, logisk ordnet Udskift pladsholdere Vigtig indsigt: LLM er god til simple forespørgsler, og kompleksiteten af forespørgsler forbedres med 20%-33% efter dekomponering.

ROG (2025) - Avanceret version

Arver LARK-rammen og tilføjer en Agent konsensusmekanisme:

ROG = LARK kerne + Multi-Agent samarbejde + Tankekæde forstærkning

Forklaring af forbedringer Agent design Intelligent agent = Videnbase + LLM, multi-agent konsensusbeslutningstagning CoT forbedring Mere eksplicitte tankekæde prompt skabeloner Indenlandsk tilpasning Baseret på ChatGLM+Neo4j, orienteret mod vertikale områder som elektricitet ROG's dataflow model

Ydelsesspring: På FB15k steg ip-forespørgslen (projektion efter kryds) MRR fra 29,3→62,0, en stigning på 111%!

Tabel 1: FB15k datasæt MRR sammenligning. ROG er førende på alle områder, og forbedringen af sammensatte forespørgsler er mest markant.

III. Etablering af paradigme og fremtidige retninger

To generationer af artikler har i fællesskab bekræftet et paradigme:

"Hentningsforbedring + Forespørgselsdekomponering + LLM ræsonnement" er en effektiv vej til KG kompleks logisk ræsonnement.

Vigtige tendenser:

  • Abstraktion er afgørende - Fjernelse af semantisk støj, fokus på logisk struktur
  • Dekomponeringsstrategi bestemmer loftet - Kædedekomponering er mere pålidelig end end-to-end
  • Modelkapaciteten frigives løbende - Fra Llama2-7B til ChatGLM giver basefremskridt betydelige gevinster

ROG's Agent-mekanisme forbedrer fortolkeligheden, men kerneinnovationen ligger i ingeniørmæssig optimering snarere end teoretisk gennembrud. Fremtidige retninger kan være: dynamiske dekomponeringsstrategier (adaptiv forespørgselskompleksitet), multimodal KG-fusion og større åben domænevalidering.

Published in Technology

You Might Also Like