Recentemente, vi 2 bons artigos sobre LLM+KG para raciocínio lógico complexo

2/15/2026
3 min read

Recentemente, vi 2 bons artigos sobre LLM+KG para raciocínio lógico complexo

  1. LARK https://arxiv.org/abs/2305.01157 Raciocínio Lógico Complexo sobre Grafos de Conhecimento usando Grandes Modelos de Linguagem

  2. ROG https://arxiv.org/abs/2512.19092 Um Método Baseado em Grandes Modelos de Linguagem para Raciocínio Lógico Complexo sobre Grafos de Conhecimento

I. O Dilema do Raciocínio em Grafos de Conhecimento

O grafo de conhecimento (KG), como o principal portador de conhecimento estruturado, enfrenta três grandes desafios:

  • Complexidade: explosão combinatória de operações como raciocínio multi-hop, interseções e uniões, negação, etc.
  • Incompletude: KGs do mundo real geralmente têm ruído e estão incompletos
  • Generalização: métodos de incorporação tradicionais são difíceis de transferir entre conjuntos de dados

As soluções tradicionais (como Query2Box, BetaE) dependem do espaço de incorporação geométrica, modelando operações lógicas como operações de vetores/caixas, mas sofrem de séria perda de informação durante o raciocínio profundo. Como fazer com que o modelo entenda a estrutura lógica e também raciocine de forma flexível? A ascensão dos grandes modelos de linguagem (LLM) forneceu uma nova ideia.

Figura 1: Decomposição da cadeia de consulta do LARK e fluxo de raciocínio do LLM. Decompondo consultas complexas de múltiplas operações em subconsultas de operação única, resolvendo-as passo a passo.

II. Solução: A Herança e Evolução de Duas Gerações de Métodos

LARK (2023) —— Trabalho Pioneiro

Figura 2: Estratégias de decomposição para 14 tipos de consulta. 3p é dividido em 3 projeções, 3i é dividido em 3 projeções + 1 interseção.

Inovação central: Abstração de consulta + Decomposição da cadeia lógica

Design de componentes Abstração de consulta: substitui entidades/relações por IDs, elimina alucinações, melhora a generalização Recuperação de vizinhança: busca em profundidade k-hop (k=3), extrai subgrafos relacionados Decomposição em cadeia: consulta de múltiplas operações → sequência de subconsultas de operação única Raciocínio sequencial: armazena em cache resultados intermediários, substitui marcadores de posição em ordem lógica Insight chave: LLMs são bons em consultas simples, o desempenho melhora em 20%-33% após a decomposição de consultas complexas.

ROG (2025) —— Versão Avançada

Herda a estrutura LARK, adiciona mecanismo de consenso do Agente:

ROG = Núcleo LARK + Colaboração Multi-Agente + Reforço da Cadeia de Pensamento

Explicação das melhorias Design do Agente: Agente = Base de conhecimento + LLM, tomada de decisão por consenso multi-agente Aprimoramento CoT: modelos de prompt de cadeia de pensamento mais claros Adaptação doméstica: baseado em ChatGLM+Neo4j, voltado para áreas verticais como energia elétrica Modelo de fluxo de dados do ROG

Aumento de desempenho: no FB15k, a consulta ip (projeção após interseção) MRR aumentou de 29,3→62,0, um aumento de 111%!

Tabela 1: Comparação MRR do conjunto de dados FB15k. ROG lidera em todos os aspectos, com a melhoria mais significativa em consultas compostas.

III. Estabelecimento de Paradigma e Direções Futuras

Duas gerações de artigos validaram conjuntamente um paradigma:

"Recuperação aprimorada + Decomposição de consulta + Raciocínio LLM" é um caminho eficaz para o raciocínio lógico complexo de KG.

Tendências chave:

A abstração é crucial —— Remove o ruído semântico, concentra-se na estrutura lógica A estratégia de decomposição determina o limite superior —— A decomposição em cadeia é mais confiável do que ponta a ponta A capacidade do modelo continua a ser liberada —— Do Llama2-7B ao ChatGLM, o progresso da base traz ganhos significativos

Embora o mecanismo de Agente do ROG melhore a interpretabilidade, a inovação central reside na otimização de engenharia, e não em avanços teóricos. As direções futuras podem estar em: estratégias de decomposição dinâmica (complexidade de consulta adaptativa), fusão de KG multimodal e verificação de domínio aberto em maior escala.

Published in Technology

You Might Also Like