Récemment, j'ai vu 2 bons articles sur l'inférence logique complexe LLM+KG

2/15/2026
4 min read

Récemment, j'ai vu 2 bons articles sur l'inférence logique complexe LLM+KG

  1. LARK https://arxiv.org/abs/2305.01157 Complex Logical Reasoning over Knowledge Graphs using Large Language Models

  2. ROG https://arxiv.org/abs/2512.19092 A Large Language Model Based Method for Complex Logical Reasoning over Knowledge Graphs

I. Les difficultés de l'inférence de graphes de connaissances

Le graphe de connaissances (KG), en tant que porteur central de connaissances structurées, est confronté à trois principaux problèmes :

  • Complexité : explosion combinatoire d'opérations telles que l'inférence multi-sauts, les intersections, les unions et les négations.
  • Incomplétude : le bruit et les lacunes sont omniprésents dans les KG du monde réel.
  • Généralisation : les méthodes d'intégration traditionnelles sont difficiles à transférer entre les ensembles de données.

Les solutions traditionnelles (telles que Query2Box, BetaE) reposent sur un espace d'intégration géométrique, modélisant les opérations logiques comme des opérations vectorielles/de boîtes, mais la perte d'informations est grave lors de l'inférence en profondeur. Comment faire en sorte que le modèle comprenne à la fois la structure logique et puisse raisonner de manière flexible ? L'essor des grands modèles de langage (LLM) offre une nouvelle façon de penser.

Figure 1 : Décomposition de la chaîne de requête et processus d'inférence LLM de LARK. Décomposer les requêtes complexes à opérations multiples en sous-requêtes à opération unique et les résoudre progressivement.

II. Solution : Héritage et évolution des méthodes de deux générations

LARK (2023) - Un travail de pionnier

Figure 2 : Stratégie de décomposition de 14 types de requêtes. 3p est divisé en 3 projections, 3i est divisé en 3 projections + 1 intersection.

Innovation principale : abstraction de requête + décomposition de chaîne logique

Conception des composants Abstraction de requête : remplacer les entités/relations par des ID, éliminer les hallucinations, améliorer la généralisation Récupération de voisinage : parcours en profondeur d'abord k-hop (k=3), extraire les sous-graphes pertinents Décomposition en chaîne : requête multi-opérations → séquence de sous-requêtes à opération unique Inférence séquentielle : mettre en cache les résultats intermédiaires, remplacement logique ordonné des espaces réservés Observation clé : les LLM excellent dans les requêtes simples, les performances s'améliorent de 20 à 33 % après la décomposition des requêtes complexes.

ROG (2025) - Version avancée

Hérite du framework LARK, ajoute un mécanisme de consensus d'Agent :

ROG = Noyau LARK + Collaboration multi-Agent + Renforcement de la chaîne de pensée

Explication des améliorations Conception de l'Agent : Agent = Base de connaissances + LLM, prise de décision par consensus multi-Agent Amélioration CoT : modèles d'invite de chaîne de pensée plus clairs Adaptation nationale : basé sur ChatGLM+Neo4j, orienté vers des domaines verticaux tels que l'électricité Modèle de flux de données de ROG

Saut de performance : sur FB15k, la requête ip (projection après intersection) MRR passe de 29,3 → 62,0, une augmentation de 111 % !

Tableau 1 : Comparaison MRR de l'ensemble de données FB15k. ROG est globalement en tête, l'amélioration des requêtes composites est la plus significative.

III. Établissement de paradigme et orientations futures

Les articles des deux générations valident conjointement un paradigme :

"Récupération augmentée + Décomposition de requête + Inférence LLM" est une voie efficace pour l'inférence logique complexe KG.

Tendances clés :

  • L'abstraction est cruciale - Supprimer le bruit sémantique, se concentrer sur la structure logique
  • La stratégie de décomposition détermine la limite supérieure - La décomposition en chaîne est plus fiable que de bout en bout
  • La capacité du modèle continue de se libérer - De Llama2-7B à ChatGLM, les progrès de la base apportent des gains significatifs

Bien que le mécanisme d'Agent de ROG améliore l'interprétabilité, l'innovation principale réside dans l'optimisation de l'ingénierie plutôt que dans une percée théorique. Les orientations futures pourraient être : les stratégies de décomposition dynamique (complexité de requête auto-adaptative), la fusion KG multimodale et la vérification de domaine ouvert à plus grande échelle.

Published in Technology

You Might Also Like