Ostatnio widziałem 2 dobre artykuły na temat LLM+KG do złożonego wnioskowania logicznego

2/15/2026
3 min read

Ostatnio widziałem 2 dobre artykuły na temat LLM+KG do złożonego wnioskowania logicznego

  1. LARK https://arxiv.org/abs/2305.01157 Complex Logical Reasoning over Knowledge Graphs using Large Language Models

  2. ROG https://arxiv.org/abs/2512.19092 A Large Language Model Based Method for Complex Logical Reasoning over Knowledge Graphs

I. Trudności wnioskowania w grafach wiedzy

Grafy wiedzy (KG) jako podstawowy nośnik wiedzy ustrukturyzowanej, borykają się z trzema głównymi problemami:

  • Złożoność: eksplozja kombinatoryczna operacji wielo-skokowych, przecięć i sum, negacji itp.
  • Niekompletność: rzeczywiste KG powszechnie zawierają szumy i braki
  • Generalizacja: tradycyjne metody osadzania z trudem przenoszą się między zbiorami danych

Tradycyjne rozwiązania (takie jak Query2Box, BetaE) polegają na geometrycznej przestrzeni osadzania, modelując operacje logiczne jako operacje wektorowe/pudełkowe, ale podczas głębokiego wnioskowania dochodzi do poważnej utraty informacji. Jak sprawić, by model rozumiał zarówno strukturę logiczną, jak i elastycznie wnioskował? Rozwój dużych modeli językowych (LLM) oferuje nowe podejście.

Rysunek 1: Rozkład łańcucha zapytań i proces wnioskowania LLM w LARK. Złożone zapytania wielooperacyjne są rozkładane na zapytania podrzędne jednooperacyjne, rozwiązywane krok po kroku.

II. Rozwiązanie: Dziedzictwo i ewolucja dwóch generacji metod

LARK (2023) —— Praca pionierska

Rysunek 2: Strategie dekompozycji dla 14 typów zapytań. 3p jest rozkładane na 3 projekcje, 3i jest rozkładane na 3 projekcje + 1 przecięcie.

Kluczowa innowacja: abstrakcja zapytań + dekompozycja łańcucha logicznego

Komponenty Abstrakcja zapytań zastępowanie encji/relacji identyfikatorami, eliminacja halucynacji, poprawa generalizacji Wyszukiwanie sąsiedztwa przeszukiwanie w głąb k-hop (k=3), ekstrakcja powiązanych podgrafów Dekompozycja łańcuchowa zapytania wielooperacyjne → sekwencja zapytań podrzędnych jednooperacyjnych Wnioskowanie sekwencyjne buforowanie wyników pośrednich, logiczne uporządkowanie zastępowanie symboli zastępczych Kluczowy wniosek: LLM dobrze radzą sobie z prostymi zapytaniami, dekompozycja złożonych zapytań poprawia wydajność o 20%-33%.

ROG (2025) —— Wersja zaawansowana

Dziedziczy ramy LARK, dodaje mechanizm konsensusu Agentów:

ROG = rdzeń LARK + współpraca wielu Agentów + wzmocnienie łańcucha myślowego

Wyjaśnienie ulepszeń Projekt Agenta Agent = baza wiedzy + LLM, decyzje oparte na konsensusie wielu Agentów Wzmocnienie CoT Bardziej wyraźne szablony podpowiedzi łańcucha myślowego Dopasowanie do krajowych standardów Oparte na ChatGLM+Neo4j, skierowane do pionowych dziedzin, takich jak energetyka Model przepływu danych ROG

Skok wydajności: na FB15k, zapytanie ip (projekcja po przecięciu) MRR wzrosło z 29.3→62.0, poprawa o 111%!

Tabela 1: Porównanie MRR zbioru danych FB15k. ROG jest wszechstronnie lepszy, a poprawa jest najbardziej znacząca w przypadku zapytań złożonych.

III. Ustanowienie paradygmatu i przyszłe kierunki

Dwie generacje artykułów wspólnie zweryfikowały paradygmat:

"Wyszukiwanie rozszerzone + dekompozycja zapytań + wnioskowanie LLM" to skuteczna ścieżka do złożonego wnioskowania logicznego KG.

Kluczowe trendy:

  • Abstrakcja jest kluczowa —— oddzielenie szumu semantycznego, skupienie się na strukturze logicznej
  • Strategia dekompozycji determinuje górną granicę —— dekompozycja łańcuchowa jest bardziej niezawodna niż end-to-end
  • Zdolności modelu są stale uwalniane —— od Llama2-7B do ChatGLM, postęp bazy przynosi znaczące korzyści

Mechanizm Agentów ROG wzmacnia co prawda interpretowalność, ale kluczowa innowacja polega na optymalizacji inżynieryjnej, a nie przełomie teoretycznym. Przyszłe kierunki mogą obejmować: dynamiczne strategie dekompozycji (adaptacyjne do złożoności zapytań), fuzję multimodalnych KG oraz weryfikację w większej skali w otwartej domenie.

Published in Technology

You Might Also Like