Recent, am văzut 2 lucrări bune despre LLM+KG pentru raționament logic complex

2/15/2026
3 min read

Recent, am văzut 2 lucrări bune despre LLM+KG pentru raționament logic complex

  1. LARK https://arxiv.org/abs/2305.01157 Complex Logical Reasoning over Knowledge Graphs using Large Language Models

  2. ROG https://arxiv.org/abs/2512.19092 A Large Language Model Based Method for Complex Logical Reasoning over Knowledge Graphs

I. Dificultățile raționamentului cu grafuri de cunoștințe

Grafurile de cunoștințe (KG), ca purtător central de cunoștințe structurate, se confruntă cu trei puncte slabe:

  • Complexitate: explozie combinatorică a operațiilor multi-hop, intersecție și reuniune, negare etc.
  • Incompletitudine: KG-urile din lumea reală au în general zgomot și lipsuri
  • Generalizare: metodele tradiționale de încorporare sunt greu de transferat între seturi de date

Soluțiile tradiționale (cum ar fi Query2Box, BetaE) se bazează pe spațiul de încorporare geometrică, modelând operațiile logice ca operații vectoriale/cutie, dar pierderea de informații este severă în timpul raționamentului profund. Cum să facem modelul să înțeleagă atât structura logică, cât și să raționeze flexibil? Ascensiunea modelelor lingvistice mari (LLM) oferă o nouă idee.

Figura 1: Descompunerea lanțului de interogare LARK și fluxul de raționament LLM. Descompune interogările complexe cu mai multe operații în subinterogări cu o singură operație și le rezolvă treptat.

II. Soluție: Moștenirea și evoluția metodelor din două generații

LARK (2023) —— Lucrare de pionierat

Figura 2: Strategii de descompunere pentru 14 tipuri de interogări. 3p este împărțit în 3 proiecții, iar 3i este împărțit în 3 proiecții + 1 intersecție.

Inovație de bază: abstractizarea interogărilor + descompunerea lanțului logic

Componente de proiectare Abstractizarea interogărilor Înlocuirea entităților/relațiilor cu ID-uri, eliminarea halucinațiilor, îmbunătățirea generalizării Căutare în vecinătate Parcurgere în profunzime k-hop (k=3), extragerea subgrafurilor relevante Descompunere în lanț Interogări cu mai multe operații → Secvență de subinterogări cu o singură operație Raționament secvențial Stocarea în cache a rezultatelor intermediare, înlocuirea ordonată logic a substituentilor Observație cheie: LLM-urile excelează la interogări simple, iar performanța este îmbunătățită cu 20%-33% după descompunerea interogărilor complexe.

ROG (2025) —— Versiune avansată

Moștenește cadrul LARK, adăugând un mecanism de consens Agent:

ROG = Nucleu LARK + Colaborare multi-Agent + Întărirea lanțului de gândire

Explicații ale îmbunătățirilor Proiectare Agent Agent inteligent = Bază de cunoștințe + LLM, luare a deciziilor prin consens multi-Agent Îmbunătățire CoT Șabloane de solicitare a lanțului de gândire mai clare Adaptare internă Bazat pe ChatGLM+Neo4j, orientat către domenii verticale, cum ar fi energia electrică Modelul de flux de date ROG

Salt de performanță: Pe FB15k, MRR pentru interogări ip (proiecție după intersecție) crește de la 29,3→62,0, o îmbunătățire de 111%!

Tabelul 1: Comparație MRR a setului de date FB15k. ROG este lider în toate aspectele, iar îmbunătățirea interogărilor compuse este cea mai semnificativă.

III. Stabilirea paradigmei și direcții viitoare

Lucrările din două generații au verificat împreună o paradigmă:

"Recuperare îmbunătățită + Descompunerea interogărilor + Raționamentul LLM" este o cale eficientă pentru raționamentul logic complex KG.

Tendințe cheie:

  • Abstractizarea este crucială —— Eliminarea zgomotului semantic, concentrarea pe structura logică
  • Strategia de descompunere determină limita superioară —— Descompunerea în lanț este mai fiabilă decât end-to-end
  • Capacitatea modelului este eliberată continuu —— De la Llama2-7B la ChatGLM, progresul bazei aduce câștiguri semnificative

Mecanismul Agent al ROG îmbunătățește interpretabilitatea, dar inovația de bază constă în optimizarea inginerească, mai degrabă decât în descoperirea teoretică. Direcțiile viitoare pot include: strategii de descompunere dinamice (complexitate adaptivă a interogărilor), fuziunea KG multimodală și validarea pe scară mai largă în domenii deschise.

Published in Technology

You Might Also Like