সম্প্রতি, LLM+KG ব্যবহার করে জটিল লজিক্যাল যুক্তির উপর দুটি চমৎকার গবেষণাপত্র দেখলাম
সম্প্রতি, LLM+KG ব্যবহার করে জটিল লজিক্যাল যুক্তির উপর দুটি চমৎকার গবেষণাপত্র দেখলাম
-
LARK https://arxiv.org/abs/2305.01157 Complex Logical Reasoning over Knowledge Graphs using Large Language Models
-
ROG https://arxiv.org/abs/2512.19092 A Large Language Model Based Method for Complex Logical Reasoning over Knowledge Graphs
এক, জ্ঞান গ্রাফ যুক্তির অসুবিধা
জ্ঞান গ্রাফ (KG) কাঠামোগত জ্ঞানের মূল ধারক হিসাবে, তিনটি প্রধান সমস্যার সম্মুখীন হয়:
- জটিলতা: মাল্টি-হপ যুক্তি, ইন্টারসেকশন এবং ইউনিয়নের মতো অপারেশনের বিস্ফোরণ
- অসম্পূর্ণতা: বাস্তব বিশ্বের KG-তে সাধারণত নয়েজ এবং ডেটার অভাব থাকে
- সাধারণীকরণ: ঐতিহ্যবাহী এম্বেডিং পদ্ধতিগুলি ডেটাসেটগুলির মধ্যে স্থানান্তর করা কঠিন
ঐতিহ্যবাহী সমাধানগুলি (যেমন Query2Box, BetaE) জ্যামিতিক এম্বেডিং স্পেসের উপর নির্ভর করে, লজিক্যাল অপারেশনগুলিকে ভেক্টর/বক্স অপারেশন হিসাবে মডেল করে, কিন্তু গভীর যুক্তির সময় তথ্যের গুরুতর ক্ষতি হয়। কিভাবে মডেলটিকে লজিক্যাল স্ট্রাকচার বোঝানো যায়, আবার নমনীয়ভাবে যুক্তি দিতে পারে? বৃহৎ ভাষা মডেলের (LLM) উত্থান একটি নতুন ধারণা দিয়েছে।
চিত্র 1: LARK-এর ক্যোয়ারী চেইন বিভাজন এবং LLM যুক্তির প্রবাহ। জটিল মাল্টি-অপারেশন ক্যোয়ারীগুলিকে একক-অপারেশন সাব-ক্যোয়ারীতে বিভক্ত করে, ধীরে ধীরে সমাধান করা হয়।
দুই, সমাধান: দুটি প্রজন্মের পদ্ধতির উত্তরাধিকার এবং বিবর্তন
LARK (2023) - একটি যুগান্তকারী কাজ
চিত্র 2: 14 ধরনের ক্যোয়ারী বিভাজন কৌশল। 3p-কে 3টি প্রজেকশনে বিভক্ত করা হয়েছে, 3i-কে 3টি প্রজেকশন + 1টি ইন্টারসেকশনে বিভক্ত করা হয়েছে।
মূল উদ্ভাবন: ক্যোয়ারী অ্যাবস্ট্রাকশন + লজিক চেইন বিভাজন
কম্পোনেন্ট ডিজাইন ক্যোয়ারী অ্যাবস্ট্রাকশন সত্তা/সম্পর্ককে আইডি দিয়ে প্রতিস্থাপন করা, হ্যালুসিনেশন দূর করা, সাধারণীকরণ উন্নত করা নেইবারহুড পুনরুদ্ধার k-হপ ডেপথ-ফার্স্ট ট্র্যাভার্সাল (k=3), প্রাসঙ্গিক সাবগ্রাফ নিষ্কাশন চেইন বিভাজন মাল্টি-অপারেশন ক্যোয়ারী → একক-অপারেশন সাব-ক্যোয়ারী সিকোয়েন্স ক্রমিক যুক্তি মধ্যবর্তী ফলাফল ক্যাশে করা, লজিক্যাল অর্ডারে প্লেসহোল্ডার প্রতিস্থাপন মূল অন্তর্দৃষ্টি: LLM সহজ ক্যোয়ারীতে দক্ষ, জটিল ক্যোয়ারীগুলি বিভক্ত করার পরে কর্মক্ষমতা 20%-33% বৃদ্ধি পায়।
ROG (2025) - একটি উন্নত সংস্করণ
LARK ফ্রেমওয়ার্কের উত্তরাধিকার, নতুন এজেন্ট ঐকমত্য মেকানিজম যোগ করা হয়েছে:
ROG = LARK কোর + মাল্টি-এজেন্ট সহযোগিতা + চেইন অফ থট শক্তিশালীকরণ
উন্নতির ব্যাখ্যা এজেন্ট ডিজাইন ইন্টেলিজেন্ট এজেন্ট = জ্ঞান ভান্ডার + LLM, মাল্টি-এজেন্ট ঐকমত্য সিদ্ধান্ত CoT বর্ধিত আরও স্পষ্ট চেইন অফ থট প্রম্পট টেমপ্লেট দেশীয় অভিযোজন ChatGLM+Neo4j ভিত্তিক, বিদ্যুৎ শিল্পের মতো উল্লম্ব ক্ষেত্রগুলির জন্য
ROG-এর ডেটা ফ্লো মডেল
কর্মক্ষমতা বৃদ্ধি: FB15k-এ, ip ক্যোয়ারী (ইন্টারসেকশনের পরে প্রজেকশন) MRR 29.3 থেকে 62.0-এ উন্নীত হয়েছে, 111% বৃদ্ধি!
টেবিল 1: FB15k ডেটাসেটের MRR তুলনা। ROG সম্পূর্ণরূপে এগিয়ে, যৌগিক ক্যোয়ারীতে সবচেয়ে উল্লেখযোগ্য উন্নতি।
তিন, দৃষ্টান্ত প্রতিষ্ঠা এবং ভবিষ্যতের দিকনির্দেশ
দুটি প্রজন্মের গবেষণাপত্র একটি দৃষ্টান্ত প্রমাণ করেছে:
"পুনরুদ্ধার বৃদ্ধি + ক্যোয়ারী বিভাজন + LLM যুক্তি" হল KG জটিল লজিক্যাল যুক্তির একটি কার্যকর পথ।
গুরুত্বপূর্ণ প্রবণতা:
- অ্যাবস্ট্রাকশন অত্যন্ত গুরুত্বপূর্ণ - শব্দার্থিক নয়েজ অপসারণ, লজিক্যাল স্ট্রাকচারের উপর মনোযোগ কেন্দ্রীভূত করা
- বিভাজন কৌশল ঊর্ধ্বসীমা নির্ধারণ করে - চেইন বিভাজন এন্ড-টু-এন্ডের চেয়ে বেশি নির্ভরযোগ্য
- মডেলের ক্ষমতা ক্রমাগত বৃদ্ধি পাচ্ছে - Llama2-7B থেকে ChatGLM পর্যন্ত, বেস মডেলের উন্নতি উল্লেখযোগ্য লাভ নিয়ে আসে
ROG-এর এজেন্ট মেকানিজম ব্যাখ্যার ক্ষমতা বাড়ালেও, মূল উদ্ভাবনটি তাত্ত্বিক সাফল্যের চেয়ে প্রকৌশল অপ্টিমাইজেশনে বেশি নিবদ্ধ। ভবিষ্যতের দিকনির্দেশ হতে পারে: ডাইনামিক বিভাজন কৌশল (ক্যোয়ারীর জটিলতার সাথে অভিযোজিত), মাল্টিমোডাল KG ফিউশন এবং বৃহত্তর আকারের ওপেন ডোমেইন যাচাইকরণ।





