უახლოეს წარსულში ვნახე 2 კარგი სტატია LLM+KG-ის შესახებ, რომლებიც ასრულებენ კომპლექსურ ლოგიკურ მსჯელობას
უახლოეს წარსულში ვნახე 2 კარგი სტატია LLM+KG-ის შესახებ, რომლებიც ასრულებენ კომპლექსურ ლოგიკურ მსჯელობას
-
LARK https://arxiv.org/abs/2305.01157 Complex Logical Reasoning over Knowledge Graphs using Large Language Models
-
ROG https://arxiv.org/abs/2512.19092 A Large Language Model Based Method for Complex Logical Reasoning over Knowledge Graphs
I. ცოდნის გრაფიკის მსჯელობის სირთულეები
ცოდნის გრაფიკი (KG), როგორც სტრუქტურირებული ცოდნის ძირითადი მატარებელი, აწყდება სამ ძირითად პრობლემას:
- სირთულე: მრავალსაფეხურიანი მსჯელობა, კვეთა და გაერთიანება, უარყოფა და სხვა ოპერაციების კომბინაციების აფეთქება
- არასრულყოფილება: რეალურ სამყაროში KG-ში გავრცელებულია ხმაური და ხარვეზები
- გენერალიზაცია: ტრადიციული ჩაშენების მეთოდები რთულია მონაცემთა ნაკრებებს შორის გადასატანად
ტრადიციული გადაწყვეტილებები (როგორიცაა Query2Box, BetaE) ეყრდნობა გეომეტრიულ ჩაშენების სივრცეს, ლოგიკური ოპერაციების მოდელირებას ვექტორულ/ყუთურ ოპერაციებად, მაგრამ ღრმა მსჯელობის დროს ინფორმაციის სერიოზული დანაკარგია. როგორ გავხადოთ მოდელი ლოგიკური სტრუქტურის მცოდნე და ამავე დროს მოქნილად მსჯელობა? დიდი ენობრივი მოდელის (LLM) აღზევებამ ახალი იდეები მოგვცა.
სურათი 1: LARK-ის მოთხოვნის ჯაჭვის დაშლა და LLM-ის მსჯელობის პროცესი. რთული მრავალოპერაციული მოთხოვნა იშლება ერთოპერაციულ ქვემოთხოვნად და ეტაპობრივად წყდება.
II. გადაწყვეტა: ორი თაობის მეთოდების მემკვიდრეობა და ევოლუცია
LARK (2023) - პიონერული ნამუშევარი
სურათი 2: 14 ტიპის მოთხოვნის დაშლის სტრატეგია. 3p იშლება 3 პროექციად, 3i იშლება 3 პროექციად + 1 კვეთად.
ძირითადი ინოვაცია: მოთხოვნის აბსტრაქცია + ლოგიკური ჯაჭვის დაშლა
კომპონენტის დიზაინი მოთხოვნის აბსტრაქცია ერთეულის/კავშირის ჩანაცვლება ID-ით, ჰალუცინაციების აღმოფხვრა, გენერალიზაციის გაუმჯობესება მეზობლობის მოძიება k-hop სიღრმისეული ძიება (k=3), შესაბამისი ქვეგრაფიკის ამოღება ჯაჭვური დაშლა მრავალოპერაციული მოთხოვნა → ერთოპერაციული ქვემოთხოვნის თანმიმდევრობა თანმიმდევრული მსჯელობა შუალედური შედეგების ქეშირება, ლოგიკურად მოწესრიგებული შემცვლელი ადგილის დამჭერი ძირითადი დაკვირვება: LLM-ს შეუძლია მარტივი მოთხოვნების შესრულება, რთული მოთხოვნების დაშლის შემდეგ შესრულება უმჯობესდება 20%-33%-ით.
ROG (2025) - გაფართოებული ვერსია
მემკვიდრეობით იღებს LARK-ის ჩარჩოს, ამატებს Agent-ის კონსენსუსის მექანიზმს:
ROG = LARK-ის ბირთვი + მრავალი Agent-ის თანამშრომლობა + აზროვნების ჯაჭვის გაძლიერება
გაუმჯობესების პუნქტების ახსნა
Agent-ის დიზაინი
ინტელექტუალური აგენტი = ცოდნის ბაზა + LLM, მრავალი Agent-ის კონსენსუსის გადაწყვეტილება
CoT გაძლიერება
უფრო მკაფიო აზროვნების ჯაჭვის მოთხოვნის შაბლონი
ადგილობრივი ადაპტაცია
დაფუძნებულია ChatGLM+Neo4j-ზე, ორიენტირებულია ელექტროენერგიის და სხვა ვერტიკალურ სფეროებზე
ROG-ის მონაცემთა ნაკადის მოდელი
შესრულების ნახტომი: FB15k-ზე, ip მოთხოვნისთვის (კვეთის შემდეგ პროექცია) MRR გაიზარდა 29.3→62.0-მდე, 111%-ით!
ცხრილი 1: FB15k მონაცემთა ნაკრების MRR შედარება. ROG სრულად ლიდერობს, ყველაზე მნიშვნელოვანი გაუმჯობესება კომპოზიტურ მოთხოვნებშია.
III. პარადიგმის დამკვიდრება და მომავალი მიმართულებები
ორი თაობის სტატია ერთად ადასტურებს პარადიგმას:
"მოძიებით გაძლიერება + მოთხოვნის დაშლა + LLM მსჯელობა" არის KG-ის კომპლექსური ლოგიკური მსჯელობის ეფექტური გზა.
ძირითადი ტენდენციები:
- აბსტრაქცია გადამწყვეტია - აშორებს სემანტიკურ ხმაურს, ფოკუსირებულია ლოგიკურ სტრუქტურაზე
- დაშლის სტრატეგია განსაზღვრავს ზედა ზღვარს - ჯაჭვური დაშლა უფრო საიმედოა, ვიდრე ბოლოდან ბოლომდე
- მოდელის შესაძლებლობები მუდმივად იზრდება - Llama2-7B-დან ChatGLM-მდე, ბაზის პროგრესი მნიშვნელოვან სარგებელს მოაქვს
ROG-ის Agent-ის მექანიზმი აძლიერებს ახსნადობას, მაგრამ ძირითადი ინოვაცია არის საინჟინრო ოპტიმიზაცია და არა თეორიული გარღვევა. მომავალი მიმართულებები შეიძლება იყოს: დინამიური დაშლის სტრატეგია (ადაპტირებადი მოთხოვნის სირთულესთან), მულტიმოდალური KG შერწყმა და უფრო დიდი მასშტაბის ღია დომენის ვალიდაცია.





