Жақында LLM+KG көмегімен күрделі логикалық тұжырымдама жасау туралы 2 жақсы мақала көрдім
Жақында LLM+KG көмегімен күрделі логикалық тұжырымдама жасау туралы 2 жақсы мақала көрдім
-
LARK https://arxiv.org/abs/2305.01157 Complex Logical Reasoning over Knowledge Graphs using Large Language Models
-
ROG https://arxiv.org/abs/2512.19092 A Large Language Model Based Method for Complex Logical Reasoning over Knowledge Graphs
Бірінші, білім графының тұжырымдамасындағы қиындықтар
Білім графы (KG) құрылымдалған білімнің негізгі тасымалдаушысы ретінде үш негізгі мәселемен бетпе-бет келеді:
- Күрделілік: Көп секірулі тұжырымдама, қиылысу және бірігу, терістеу сияқты операциялардың комбинациясының жарылысы
- Толық еместік: Нақты әлемдегі KG шу мен жоғалуға бейім
- Жалпылау: Дәстүрлі ендіру әдістері деректер жинағы арқылы көшуге қиын
Дәстүрлі шешімдер (мысалы, Query2Box, BetaE) геометриялық ендіру кеңістігіне сүйенеді, логикалық операцияларды векторлық/қораптық операциялар ретінде модельдейді, бірақ терең тұжырымдама кезінде ақпараттың жоғалуы өте маңызды. Модельге логикалық құрылымды қалай түсінуге және икемді түрде тұжырымдауға мүмкіндік беру керек? Үлкен тілдік модельдің (LLM) пайда болуы жаңа идеяларды ұсынды.
1-сурет: LARK сұрау тізбегін бөлу және LLM тұжырымдама процесі. Күрделі көп операциялы сұрауды бір операциялы қосалқы сұрауға бөліп, біртіндеп шешіңіз.
Екінші, шешім: екі буын әдістерінің мұрасы және эволюциясы
LARK (2023) —— Негізін қалаушы жұмыс
2-сурет: 14 сұрау түрін бөлу стратегиясы. 3p 3 проекцияға бөлінеді, 3i 3 проекцияға + 1 қиылысуға бөлінеді.
Негізгі инновация: сұрауды абстракциялау + логикалық тізбекті бөлу
Компонент дизайны Сұрауды абстракциялау Объектілерді/қатынастарды ID-мен ауыстырыңыз, елестерді жойыңыз, жалпылауды жақсартыңыз Көршілес аймақты іздеу k-hop тереңдігі бойынша біріншілікпен өту (k=3), қатысты қосалқы графты шығарыңыз Тізбекті бөлу Көп операциялы сұрау → Бір операциялы қосалқы сұраулар тізбегі Ретті тұжырымдама Аралық нәтижелерді кэштеу, логикалық ретті Толтырғыштарды ауыстыру Негізгі түсінік: LLM қарапайым сұрауларды жақсы меңгереді, күрделі сұрауларды бөлгеннен кейін өнімділік 20%-33%-ға артады.
ROG (2025) —— Жаңартылған нұсқа
LARK шеңберін мұра етеді, Agent консенсус механизмін қосады:
ROG = LARK ядросы + Көп Agent ынтымақтастығы + Ойлау тізбегін күшейту
Жақсарту нүктелері Agent дизайны Интеллектуалды агент = Білім қоры + LLM, Көп Agent консенсус шешімі CoT күшейту Ойлау тізбегінің айқынырақ кеңес шаблоны Отандық бейімделу ChatGLM+Neo4j негізінде, электр энергиясы сияқты тік салаларға бағытталған
ROG деректер ағынының моделі
Өнімділік секірісі: FB15k-да ip сұрауы (қиылысудан кейін проекция) MRR 29.3→62.0-ге дейін, 111%-ға артты!
1-кесте: FB15k деректер жинағының MRR салыстыруы. ROG толықтай алда, құрама сұраудың жақсаруы ең маңызды.
Үшінші, парадигманы анықтау және болашақ бағыт
Екі буын мақаласы бір парадигманы бірлесіп растады:
"Іздеуді күшейту + Сұрауды бөлу + LLM тұжырымдамасы" KG күрделі логикалық тұжырымдамасының тиімді жолы болып табылады.
Негізгі тенденциялар:
- Абстракциялау өте маңызды —— Семантикалық шуды жойып, логикалық құрылымға назар аударыңыз
- Бөлу стратегиясы жоғарғы шекті анықтайды —— Тізбекті бөлу соңынан соңына қарағанда сенімдірек
- Модель мүмкіндіктері үздіксіз босатылады —— Llama2-7B-ден ChatGLM-ге дейін, негіздің жақсаруы айтарлықтай пайда әкеледі
ROG-тің Agent механизмі түсініктілікті арттырғанымен, негізгі инновация теориялық серпіліс емес, инженерлік оңтайландыру болып табылады. Болашақ бағыт динамикалық бөлу стратегиясында (сұраудың күрделілігіне бейімделу), көп модальды KG біріктіруде және үлкен ауқымды ашық аймақты тексеруде болуы мүмкін.





