Kohët e fundit, kam parë 2 punime të mira LLM+KG për arsyetimin kompleks logjik
Kohët e fundit, kam parë 2 punime të mira LLM+KG për arsyetimin kompleks logjik
-
LARK https://arxiv.org/abs/2305.01157 Complex Logical Reasoning over Knowledge Graphs using Large Language Models
-
ROG https://arxiv.org/abs/2512.19092 A Large Language Model Based Method for Complex Logical Reasoning over Knowledge Graphs
I. Vështirësitë e arsyetimit të grafikut të njohurive
Grafiku i njohurive (KG), si bartësi kryesor i njohurive të strukturuara, përballet me tre probleme kryesore:
- Kompleksiteti: Kombinimi shpërthyes i operacioneve të shumëfishta, kryqëzimeve, bashkimeve, mohimeve, etj.
- Paplotësia: KG-të e botës reale përgjithësisht kanë zhurmë dhe mungesa
- Përgjithësimi: Metodat tradicionale të ngulitjes e kanë të vështirë të migrojnë ndërmjet grupeve të të dhënave
Zgjidhjet tradicionale (si Query2Box, BetaE) mbështeten në hapësirën gjeometrike të ngulitjes, duke modeluar operacionet logjike si operacione vektoriale/kutie, por humbja e informacionit është e rëndë gjatë arsyetimit të thellë. Si ta bëjmë modelin të kuptojë strukturën logjike dhe të arsyetojë në mënyrë fleksibile? Ngritja e modeleve të mëdha gjuhësore (LLM) ofron një ide të re.
Figura 1: Zbërthimi i zinxhirit të pyetjeve të LARK dhe procesi i arsyetimit LLM. Zbërthen pyetjet komplekse me shumë operacione në nën-pyetje me një operacion dhe i zgjidh gradualisht.
II. Zgjidhja: Trashëgimia dhe evolucioni i dy brezave të metodave
LARK (2023) - Një vepër pioniere
Figura 2: Strategjitë e dekompozimit për 14 lloje pyetjesh. 3p zbërthehet në 3 projeksione, 3i zbërthehet në 3 projeksione + 1 kryqëzim.
Inovacioni kryesor: Abstraksioni i pyetjeve + Zbërthimi i zinxhirit logjik
Komponentët projektojnë abstraksionin e pyetjeve, entitetet/marrëdhëniet zëvendësohen me ID, eliminojnë halucinacionet, përmirësojnë përgjithësimin, marrin k-hop thellësi të kërkimit të fqinjësisë (k=3), nxjerrin nën-grafikun e lidhur, zbërthimin zinxhir, pyetjet me shumë operacione → sekuenca e nën-pyetjeve me një operacion, arsyetimi sekuencial, ruajnë rezultatet e ndërmjetme, zëvendësojnë mbajtësit e vendeve në mënyrë logjike të rregullt, vëzhgimi kryesor: LLM është i mirë në pyetje të thjeshta, performanca përmirësohet me 20%-33% pas zbërthimit të pyetjeve komplekse.
ROG (2025) - Version i avancuar
Trashëgon kornizën LARK, shton mekanizmin e konsensusit të Agjentit:
ROG = Bërthama LARK + Bashkëpunimi i shumëfishtë i Agjentëve + Përforcimi i zinxhirit të mendimit
Përmirësimet shpjegojnë dizajnin e Agjentit, agjenti inteligjent = baza e njohurive + LLM, vendimmarrja e konsensusit të shumëfishtë të Agjentëve, përmirësimi i CoT, shabllon më i qartë i shënimeve të zinxhirit të mendimit, përshtatja vendase bazuar në ChatGLM+Neo4j, i orientuar drejt fushave vertikale si energjia elektrike.
Modeli i rrjedhës së të dhënave ROG
Kërcim në performancë: Në FB15k, pyetja ip (projeksioni pas kryqëzimit) MRR rritet nga 29.3→62.0, një përmirësim prej 111%!
Tabela 1: Krahasimi i MRR të grupit të të dhënave FB15k. ROG kryeson në të gjitha aspektet, dhe përmirësimi i pyetjeve të përbëra është më i rëndësishëm.
III. Vendosja e paradigmës dhe drejtimi i ardhshëm
Të dy punimet e gjeneratave verifikojnë së bashku një paradigmë:
"Përforcimi i kërkimit + Zbërthimi i pyetjeve + Arsyetimi LLM" është një rrugë efektive për arsyetimin kompleks logjik KG.
Trendet kryesore:
- Abstraksioni është thelbësor - heqja e zhurmës semantike, përqendrimi në strukturën logjike
- Strategjia e dekompozimit përcakton kufirin e sipërm - zbërthimi zinxhir është më i besueshëm se fundi në fund
- Aftësia e modelit vazhdon të çlirohet - nga Llama2-7B në ChatGLM, përparimi i bazës sjell përfitime të rëndësishme
Mekanizmi i Agjentit të ROG rrit shpjegueshmërinë, por inovacioni kryesor qëndron në optimizimin inxhinierik dhe jo në përparimin teorik. Drejtimet e ardhshme mund të jenë: strategjitë dinamike të dekompozimit (kompleksiteti adaptiv i pyetjeve), shkrirja multimodale KG dhe verifikimi i domenit të hapur në shkallë më të madhe.





