Recentment, he vist 2 bons articles sobre LLM+KG per a raonament lògic complex

2/15/2026
3 min read

Recentment, he vist 2 bons articles sobre LLM+KG per a raonament lògic complex

  1. LARK https://arxiv.org/abs/2305.01157 Complex Logical Reasoning over Knowledge Graphs using Large Language Models

  2. ROG https://arxiv.org/abs/2512.19092 A Large Language Model Based Method for Complex Logical Reasoning over Knowledge Graphs

I. La dificultat del raonament de grafs de coneixement

El graf de coneixement (KG), com a portador central del coneixement estructurat, s'enfronta a tres problemes principals:

  • Complexitat: raonament de múltiples salts, interseccions i unions, negació i altres combinacions que exploten
  • Incompletesa: els KG del món real solen tenir soroll i mancances
  • Generalització: els mètodes d'incrustació tradicionals són difícils de transferir entre conjunts de dades

Les solucions tradicionals (com Query2Box, BetaE) depenen de l'espai d'incrustació geomètrica, modelant les operacions lògiques com a operacions vectorials/de caixa, però la pèrdua d'informació és greu durant el raonament profund. Com fer que el model entengui l'estructura lògica i raoni de manera flexible? L'auge dels models de llenguatge grans (LLM) ofereix una nova idea.

Figura 1: Descomposició de la cadena de consulta de LARK i flux de raonament LLM. Descompon la consulta complexa de múltiples operacions en subconsultes d'una sola operació i resol pas a pas.

II. Solució: Herència i evolució de dues generacions de mètodes

LARK (2023) —— Obra pionera

Figura 2: Estratègia de descomposició de 14 tipus de consulta. 3p es divideix en 3 projeccions, 3i es divideix en 3 projeccions + 1 intersecció.

Innovació central: abstracció de consulta + descomposició de cadena lògica

Disseny de components Abstracció de consulta Substitució d'entitats/relacions per ID, eliminant al·lucinacions i millorant la generalització Recuperació de veïnat Recorregut en profunditat k-hop (k=3), extraient subgrafs rellevants Descomposició en cadena Consulta de múltiples operacions → Seqüència de subconsultes d'una sola operació Raonament seqüencial Emmagatzematge en memòria cau dels resultats intermedis, reemplaçant els marcadors de posició lògicament ordenats Perspectiva clau: els LLM destaquen en consultes senzilles, el rendiment millora entre un 20% i un 33% després de descompondre les consultes complexes.

ROG (2025) —— Versió avançada

Hereta el marc LARK, afegint un mecanisme de consens d'Agent:

ROG = Nucli LARK + Col·laboració multi-Agent + Reforç de la cadena de pensament

Explicació de les millores Disseny d'Agent Agent = Base de coneixement + LLM, presa de decisions per consens multi-Agent Millora CoT Plantilles d'indicacions de cadena de pensament més clares Adaptació nacional Basat en ChatGLM+Neo4j, orientat a camps verticals com l'energia elèctrica Model de flux de dades de ROG

Salt de rendiment: a FB15k, la consulta ip (projecció després de la intersecció) MRR augmenta de 29,3→62,0, un augment del 111%!

Taula 1: Comparació MRR del conjunt de dades FB15k. ROG lidera de manera integral, la millora de la consulta composta és la més significativa.

III. Establiment de paradigma i direcció futura

Dues generacions d'articles verifiquen conjuntament un paradigma:

"Recuperació millorada + Descomposició de consulta + Raonament LLM" és un camí eficaç per al raonament lògic complex de KG.

Tendències clau:

  • L'abstracció és crucial —— Eliminar el soroll semàntic, centrar-se en l'estructura lògica
  • L'estratègia de descomposició determina el límit superior —— La descomposició en cadena és més fiable que l'extrem a extrem
  • La capacitat del model s'allibera contínuament —— Des de Llama2-7B fins a ChatGLM, el progrés de la base aporta guanys significatius

El mecanisme d'Agent de ROG millora la interpretabilitat, però la innovació central rau en l'optimització d'enginyeria en lloc d'un avenç teòric. La direcció futura podria ser: estratègies de descomposició dinàmica (complexitat de consulta adaptativa), fusió KG multimodal i verificació de domini obert a major escala.

Published in Technology

You Might Also Like