Недавно сам видео 2 добра рада о сложеном логичком закључивању помоћу LLM+KG

2/15/2026
3 min read

Недавно сам видео 2 добра рада о сложеном логичком закључивању помоћу LLM+KG

  1. LARK https://arxiv.org/abs/2305.01157 Complex Logical Reasoning over Knowledge Graphs using Large Language Models

  2. ROG https://arxiv.org/abs/2512.19092 A Large Language Model Based Method for Complex Logical Reasoning over Knowledge Graphs

I. Изазови закључивања у графовима знања

Графови знања (KG) као основни носачи структурираног знања, суочавају се са три главне болне тачке:

  • Сложеност: Комбинаторна експлозија операција као што су закључивање у више корака, пресек, унија, негација итд.
  • Непотпуност: Стварни KG-ови генерално имају шум и недостатке
  • Генерализација: Традиционалне методе уграђивања тешко се преносе између скупова података

Традиционална решења (као што су Query2Box, BetaE) ослањају се на геометријски уграђени простор, моделирајући логичке операције као векторске/кутијасте операције, али губитак информација је озбиљан приликом дубоког закључивања. Како омогућити моделу да разуме логичку структуру и да флексибилно закључује? Успон великих језичких модела (LLM) пружа нове идеје.

Слика 1: LARK-ова декомпозиција ланца упита и процес закључивања LLM-а. Декомпонује сложене упите са више операција у под-упите са једном операцијом и постепено их решава.

II. Решење: Наслеђе и еволуција две генерације метода

LARK (2023) —— Пионирски рад

Слика 2: Стратегије декомпозиције за 14 типова упита. 3p се дели на 3 пројекције, 3i се дели на 3 пројекције + 1 пресек.

Основна иновација: Апстракција упита + Декомпозиција логичког ланца

Дизајн компоненти Апстракција упита: Замена ентитета/односа са ID-овима, елиминисање халуцинација, побољшање генерализације Претрага суседства: k-hop претрага у дубину (k=3), издвајање релевантних подграфова Ланчана декомпозиција: Упити са више операција → Низ под-упита са једном операцијом Секвенцијално закључивање: Кеширање међурезултата, логички уређено Замена резервисаних места: Кључни увид: LLM је добар у једноставним упитима, перформансе се побољшавају за 20%-33% након декомпозиције сложених упита.

ROG (2025) —— Напредна верзија

Наслеђује LARK оквир, додајући механизам консензуса Agent-а:

ROG = LARK језгро + Колаборација више Agent-а + Појачање ланца мисли

Објашњење побољшања Дизајн Agent-а: Интелигентни агент = База знања + LLM, консензус одлучивање више Agent-а CoT појачање: Јаснији шаблони за подстицање ланца мисли Локална адаптација: Засновано на ChatGLM+Neo4j, оријентисано на вертикалне области као што је електроенергетика ROG модел протока података

Скок перформанси: На FB15k, ip упит (пројекција након пресека) MRR са 29.3→62.0, повећање од 111%!

Табела 1: Поређење MRR-а на скупу података FB15k. ROG је свеобухватно водећи, а побољшање је најзначајније за сложене упите.

III. Успостављање парадигме и будући правци

Два рада заједно потврђују парадигму:

"Појачано претраживање + Декомпозиција упита + LLM закључивање" је ефикасан пут за сложено логичко закључивање KG-а.

Кључни трендови:

  • Апстракција је кључна —— Уклањање семантичког шума, фокусирање на логичку структуру
  • Стратегија декомпозиције одређује горњу границу —— Ланчана декомпозиција је поузданија од краја до краја
  • Способност модела се континуирано ослобађа —— Од Llama2-7B до ChatGLM, напредак основног модела доноси значајне добитке

Иако ROG-ов механизам Agent-а побољшава објашњивост, основна иновација лежи у инжењерској оптимизацији, а не у теоријском продору. Будући правци могу бити: стратегије динамичке декомпозиције (адаптибилна сложеност упита), фузија мултимодалних KG-ова и већа верификација у отвореном домену.

Published in Technology

You Might Also Like

📝
Technology

Claude Code Buddy модификација: Како добити сјајног легендарног љубимца

Claude Code Buddy модификација: Како добити сјајног легендарног љубимца априла 2026. године, Anthropic је у верзији Clau...

Obsidian je lansirao Defuddle, podigao Obsidian Web Clipper na novi nivoTechnology

Obsidian je lansirao Defuddle, podigao Obsidian Web Clipper na novi nivo

Obsidian je lansirao Defuddle, podigao Obsidian Web Clipper na novi nivo Uvek sam voleo osnovnu ideju Obsidiana: lokaln...

OpenAI iznenada najavljuje "tri u jednom": spajanje pretraživača + programiranja + ChatGPT, unutrašnje priznanje da su prošle godine pogrešiliTechnology

OpenAI iznenada najavljuje "tri u jednom": spajanje pretraživača + programiranja + ChatGPT, unutrašnje priznanje da su prošle godine pogrešili

OpenAI iznenada najavljuje "tri u jednom": spajanje pretraživača + programiranja + ChatGPT, unutrašnje priznanje da su p...

2026, ne prisiljavajte se na "disciplinu"! Uradite ovih 8 malih stvari, zdravlje će doći prirodnoHealth

2026, ne prisiljavajte se na "disciplinu"! Uradite ovih 8 malih stvari, zdravlje će doći prirodno

2026, ne prisiljavajte se na "disciplinu"! Uradite ovih 8 malih stvari, zdravlje će doći prirodno Nova godina je počela...

One of the reasons why mothers who work hard to lose weight can't succeed is definitely hereHealth

One of the reasons why mothers who work hard to lose weight can't succeed is definitely here

One of the reasons why mothers who work hard to lose weight can't succeed is definitely here Mart je već prošao, kako n...

📝
Technology

AI Browser 24-сатна стабилна операција

AI Browser 24-сатна стабилна операција Овај водич описује како да се подеси стабилно, дугорочно окружење за AI прегледач...