हाल ही में, LLM+KG के साथ जटिल तार्किक अनुमान पर 2 अच्छे शोध पत्र देखे
हाल ही में, LLM+KG के साथ जटिल तार्किक अनुमान पर 2 अच्छे शोध पत्र देखे
-
LARK https://arxiv.org/abs/2305.01157 Complex Logical Reasoning over Knowledge Graphs using Large Language Models
-
ROG https://arxiv.org/abs/2512.19092 A Large Language Model Based Method for Complex Logical Reasoning over Knowledge Graphs
I. ज्ञान ग्राफ अनुमान की दुविधा
ज्ञान ग्राफ (KG), संरचित ज्ञान के मुख्य वाहक के रूप में, तीन प्रमुख चुनौतियों का सामना करता है:
- जटिलता: बहु-हॉप अनुमान, प्रतिच्छेदन और संघ, निषेध आदि के संचालन का संयोजन विस्फोट
- अपूर्णता: वास्तविक दुनिया के KG में आमतौर पर शोर और गुम डेटा मौजूद होता है
- सामान्यीकरण: पारंपरिक एम्बेडिंग विधियों को डेटासेट में स्थानांतरित करना मुश्किल है
पारंपरिक समाधान (जैसे Query2Box, BetaE) ज्यामितीय एम्बेडिंग स्पेस पर निर्भर करते हैं, तार्किक संचालन को वेक्टर/बॉक्स संचालन के रूप में मॉडलिंग करते हैं, लेकिन गहरे अनुमान में जानकारी का गंभीर नुकसान होता है। मॉडल को तार्किक संरचना को समझने और लचीले ढंग से अनुमान लगाने में कैसे सक्षम बनाया जाए? बड़े भाषा मॉडल (LLM) का उदय एक नया विचार प्रदान करता है।
चित्र 1: LARK की क्वेरी चेन अपघटन और LLM अनुमान प्रक्रिया। जटिल बहु-ऑपरेशन क्वेरी को एकल-ऑपरेशन उप-क्वेरी में विघटित करें और धीरे-धीरे हल करें।
II. समाधान: दो पीढ़ियों की विधियों की विरासत और विकास
LARK (2023) - एक अग्रणी कार्य
चित्र 2: 14 प्रकार की क्वेरी के लिए अपघटन रणनीतियाँ। 3p को 3 अनुमानों में विभाजित किया गया है, और 3i को 3 अनुमानों + 1 प्रतिच्छेदन में विभाजित किया गया है।
मुख्य नवाचार: क्वेरी एब्स्ट्रैक्शन + लॉजिक चेन अपघटन
घटक डिजाइन क्वेरी एब्स्ट्रैक्शन इकाई/संबंध को ID से बदलें, मतिभ्रम को खत्म करें और सामान्यीकरण में सुधार करें पड़ोस पुनर्प्राप्ति k-हॉप गहराई-पहली ट्रैवर्सल (k=3), संबंधित उप-ग्राफ निकालें श्रृंखला अपघटन बहु-ऑपरेशन क्वेरी → एकल-ऑपरेशन उप-क्वेरी अनुक्रम अनुक्रमिक अनुमान मध्यवर्ती परिणामों को कैश करें, तार्किक रूप से क्रमित प्लेसहोल्डर प्रतिस्थापन महत्वपूर्ण अंतर्दृष्टि: LLM सरल क्वेरी में अच्छा है, जटिल क्वेरी को विघटित करने के बाद प्रदर्शन में 20%-33% की वृद्धि होती है।
ROG (2025) - उन्नत संस्करण
LARK ढांचे को विरासत में मिला, एक नई एजेंट सहमति तंत्र जोड़ा गया:
ROG = LARK कोर + मल्टी-एजेंट सहयोग + थॉट चेन एन्हांसमेंट
सुधार बिंदु विवरण एजेंट डिजाइन इंटेलिजेंट एजेंट = नॉलेज बेस + LLM, मल्टी-एजेंट सहमति निर्णय CoT एन्हांसमेंट अधिक स्पष्ट थॉट चेन प्रॉम्प्ट टेम्पलेट घरेलू अनुकूलन ChatGLM+Neo4j पर आधारित, बिजली और अन्य ऊर्ध्वाधर क्षेत्रों के लिए
ROG का डेटा फ्लो मॉडल
प्रदर्शन में उछाल: FB15k पर, ip क्वेरी (प्रतिच्छेदन के बाद अनुमान) MRR 29.3→62.0 से, 111% की वृद्धि!
तालिका 1: FB15k डेटासेट MRR तुलना। ROG पूरी तरह से आगे है, और समग्र क्वेरी में सबसे महत्वपूर्ण सुधार है।
III. प्रतिमान स्थापना और भविष्य की दिशा
दो पीढ़ियों के शोध पत्रों ने संयुक्त रूप से एक प्रतिमान को मान्य किया:
"पुनर्प्राप्ति संवर्धित + क्वेरी अपघटन + LLM अनुमान" KG जटिल तार्किक अनुमान के लिए एक प्रभावी मार्ग है।
प्रमुख रुझान:
- अमूर्तता महत्वपूर्ण है - सिमेंटिक शोर को दूर करें और तार्किक संरचना पर ध्यान केंद्रित करें
- अपघटन रणनीति ऊपरी सीमा निर्धारित करती है - श्रृंखला अपघटन एंड-टू-एंड की तुलना में अधिक विश्वसनीय है
- मॉडल क्षमता लगातार जारी की जा रही है - Llama2-7B से ChatGLM तक, बेस मॉडल में सुधार से महत्वपूर्ण लाभ होता है
ROG का एजेंट तंत्र व्याख्या को बढ़ाता है, लेकिन मुख्य नवाचार सैद्धांतिक सफलता के बजाय इंजीनियरिंग अनुकूलन में निहित है। भविष्य की दिशाएँ हो सकती हैं: गतिशील अपघटन रणनीतियाँ (अनुकूली क्वेरी जटिलता), मल्टीमॉडल KG संलयन, और बड़े पैमाने पर ओपन-डोमेन सत्यापन।





