في الآونة الأخيرة، اطلعت على ورقتين بحثيتين جيدتين حول LLM+KG للاستدلال المنطقي المعقد
في الآونة الأخيرة، اطلعت على ورقتين بحثيتين جيدتين حول LLM+KG للاستدلال المنطقي المعقد
-
LARK https://arxiv.org/abs/2305.01157 Complex Logical Reasoning over Knowledge Graphs using Large Language Models
-
ROG https://arxiv.org/abs/2512.19092 A Large Language Model Based Method for Complex Logical Reasoning over Knowledge Graphs
أولاً: معضلة الاستدلال في الرسم البياني المعرفي
يواجه الرسم البياني المعرفي (KG) باعتباره الحامل الأساسي للمعرفة المنظمة، ثلاث نقاط ألم رئيسية:
- التعقيد: انفجار العمليات المركبة مثل الاستدلال متعدد القفزات، والتقاطع والاتحاد، والنفي
- عدم الاكتمال: الضوضاء والنقص شائعان في KG في العالم الحقيقي
- التعميم: صعوبة نقل طرق التضمين التقليدية عبر مجموعات البيانات
تعتمد الحلول التقليدية (مثل Query2Box و BetaE) على مساحة التضمين الهندسي، حيث تقوم بنمذجة العمليات المنطقية كعمليات متجهات/صندوقية، ولكنها تتسبب في فقدان كبير للمعلومات أثناء الاستدلال العميق. كيف نجعل النموذج يفهم البنية المنطقية ويمكنه الاستدلال بمرونة؟ يوفر ظهور نماذج اللغة الكبيرة (LLM) أفكارًا جديدة.
الشكل 1: مخطط تفكيك سلسلة الاستعلام والاستدلال LLM الخاص بـ LARK. يتم تفكيك الاستعلامات المعقدة متعددة العمليات إلى استعلامات فرعية ذات عملية واحدة، ويتم حلها تدريجيًا.
ثانيًا: الحل: وراثة وتطور جيلين من الطرق
LARK (2023) - عمل رائد
الشكل 2: استراتيجيات التفكيك لـ 14 نوعًا من الاستعلامات. يتم تقسيم 3p إلى 3 إسقاطات، ويتم تقسيم 3i إلى 3 إسقاطات + 1 تقاطع.
الابتكار الأساسي: تجريد الاستعلام + تفكيك السلسلة المنطقية
تصميم المكونات تجريد الاستعلام: استبدال الكيانات/العلاقات بمعرفات، والقضاء على الهلوسة وتحسين التعميم استرجاع الجوار: اجتياز عمق أول k-hop (k=3)، واستخراج الرسوم البيانية الفرعية ذات الصلة تفكيك السلسلة: استعلامات متعددة العمليات → تسلسل استعلامات فرعية ذات عملية واحدة الاستدلال المتسلسل: تخزين النتائج الوسيطة مؤقتًا، واستبدال العناصر النائبة بترتيب منطقي الرؤية الرئيسية: تتفوق LLM في الاستعلامات البسيطة، ويتحسن الأداء بنسبة 20٪ -33٪ بعد تفكيك الاستعلامات المعقدة.
ROG (2025) - نسخة متقدمة
يرث إطار عمل LARK، ويضيف آلية إجماع الوكيل:
ROG = جوهر LARK + تعاون متعدد الوكلاء + تعزيز سلسلة التفكير
شرح التحسينات
تصميم الوكيل: الوكيل الذكي = قاعدة المعرفة + LLM، قرار إجماع متعدد الوكلاء
تعزيز CoT: قوالب مطالبات سلسلة التفكير أكثر وضوحًا
التكيف المحلي: يعتمد على ChatGLM+Neo4j، وموجه نحو المجالات الرأسية مثل الطاقة الكهربائية
نموذج تدفق البيانات الخاص بـ ROG
قفزة في الأداء: في FB15k، تحسن MRR لاستعلام ip (الإسقاط بعد التقاطع) من 29.3 → 62.0، بزيادة قدرها 111٪!
الجدول 1: مقارنة MRR لمجموعة بيانات FB15k. ROG متفوقة بشكل شامل، والتحسن الأكثر أهمية هو في الاستعلامات المركبة.
ثالثًا: تأسيس النموذج والاتجاهات المستقبلية
تؤكد الورقتان البحثيتان من الجيلين معًا على نموذج:
"الاسترجاع المعزز + تفكيك الاستعلام + الاستدلال LLM" هو مسار فعال للاستدلال المنطقي المعقد KG.
الاتجاهات الرئيسية:
- التجريد أمر بالغ الأهمية - تجريد الضوضاء الدلالية والتركيز على البنية المنطقية
- تحدد استراتيجية التفكيك الحد الأعلى - التفكيك المتسلسل أكثر موثوقية من النهاية إلى النهاية
- القدرة النموذجية مستمرة في التحرر - من Llama2-7B إلى ChatGLM، يجلب تقدم القاعدة مكاسب كبيرة
على الرغم من أن آلية الوكيل الخاصة بـ ROG تعزز إمكانية التفسير، إلا أن الابتكار الأساسي يكمن في تحسينات هندسية بدلاً من الاختراقات النظرية. قد تكمن الاتجاهات المستقبلية في: استراتيجيات التفكيك الديناميكي (القدرة على التكيف مع تعقيد الاستعلام)، ودمج KG متعدد الوسائط، والتحقق من الصحة على نطاق أوسع في المجال المفتوح.





