ಇತ್ತೀಚೆಗೆ, LLM+KG ಬಳಸಿ ಸಂಕೀರ್ಣ ತಾರ್ಕಿಕ ತೀರ್ಮಾನದ ಕುರಿತಾದ 2 ಉತ್ತಮ ಪ್ರಬಂಧಗಳನ್ನು ನೋಡಿದೆ
ಇತ್ತೀಚೆಗೆ, LLM+KG ಬಳಸಿ ಸಂಕೀರ್ಣ ತಾರ್ಕಿಕ ತೀರ್ಮಾನದ ಕುರಿತಾದ 2 ಉತ್ತಮ ಪ್ರಬಂಧಗಳನ್ನು ನೋಡಿದೆ
-
LARK https://arxiv.org/abs/2305.01157 Complex Logical Reasoning over Knowledge Graphs using Large Language Models
-
ROG https://arxiv.org/abs/2512.19092 A Large Language Model Based Method for Complex Logical Reasoning over Knowledge Graphs
ಒಂದು, ಜ್ಞಾನ ನಕ್ಷೆ ತೀರ್ಮಾನದ ತೊಂದರೆಗಳು
ಜ್ಞಾನ ನಕ್ಷೆ (KG) ರಚನಾತ್ಮಕ ಜ್ಞಾನದ ಪ್ರಮುಖ ವಾಹಕವಾಗಿ, ಮೂರು ಪ್ರಮುಖ ಸಮಸ್ಯೆಗಳನ್ನು ಎದುರಿಸುತ್ತಿದೆ:
- ಸಂಕೀರ್ಣತೆ: ಬಹು-ಹಂತದ ತೀರ್ಮಾನ, ಛೇದಕ ಮತ್ತು ಒಕ್ಕೂಟ, ನಿರಾಕರಣೆ ಮತ್ತು ಇತರ ಕಾರ್ಯಾಚರಣೆಗಳ ಸಂಯೋಜನೆಯ ಸ್ಫೋಟ
- ಅಪೂರ್ಣತೆ: ನೈಜ ಜಗತ್ತಿನ KG ಗಳಲ್ಲಿ ಸಾಮಾನ್ಯವಾಗಿ ಶಬ್ದ ಮತ್ತು ಕಾಣೆಯಾದ ಡೇಟಾ ಇರುತ್ತದೆ
- ಸಾಮಾನ್ಯೀಕರಣ: ಸಾಂಪ್ರದಾಯಿಕ ಎಂಬೆಡಿಂಗ್ ವಿಧಾನಗಳು ಡೇಟಾಸೆಟ್ಗಳಾದ್ಯಂತ ವರ್ಗಾಯಿಸಲು ಕಷ್ಟವಾಗುತ್ತದೆ
ಸಾಂಪ್ರದಾಯಿಕ ಪರಿಹಾರಗಳು (ಉದಾಹರಣೆಗೆ Query2Box, BetaE) ಜ್ಯಾಮಿತೀಯ ಎಂಬೆಡಿಂಗ್ ಜಾಗವನ್ನು ಅವಲಂಬಿಸಿವೆ, ತಾರ್ಕಿಕ ಕಾರ್ಯಾಚರಣೆಗಳನ್ನು ವೆಕ್ಟರ್/ಬಾಕ್ಸ್ ಕಾರ್ಯಾಚರಣೆಗಳಾಗಿ ರೂಪಿಸುತ್ತವೆ, ಆದರೆ ಆಳವಾದ ತೀರ್ಮಾನದಲ್ಲಿ ಮಾಹಿತಿಯ ನಷ್ಟವು ಗಂಭೀರವಾಗಿರುತ್ತದೆ. ಮಾದರಿಯು ತಾರ್ಕಿಕ ರಚನೆಯನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುವಂತೆ ಮತ್ತು ಹೊಂದಿಕೊಳ್ಳುವ ರೀತಿಯಲ್ಲಿ ತಾರ್ಕಿಸಲು ಹೇಗೆ ಸಾಧ್ಯ? ದೊಡ್ಡ ಭಾಷಾ ಮಾದರಿಗಳ (LLM) ಏರಿಕೆಯು ಹೊಸ ಆಲೋಚನೆಗಳನ್ನು ಒದಗಿಸಿದೆ.
ಚಿತ್ರ 1: LARK ನ ಪ್ರಶ್ನೆ ಸರಪಳಿ ವಿಭಜನೆ ಮತ್ತು LLM ತೀರ್ಮಾನ ಪ್ರಕ್ರಿಯೆ. ಸಂಕೀರ್ಣ ಬಹು-ಕಾರ್ಯಾಚರಣೆಯ ಪ್ರಶ್ನೆಗಳನ್ನು ಏಕ-ಕಾರ್ಯಾಚರಣೆಯ ಉಪಪ್ರಶ್ನೆಗಳಾಗಿ ವಿಭಜಿಸಿ, ಕ್ರಮೇಣ ಪರಿಹರಿಸಿ.
ಎರಡು, ಪರಿಹಾರ: ಎರಡು ತಲೆಮಾರಿನ ವಿಧಾನಗಳ ಪರಂಪರೆ ಮತ್ತು ವಿಕಸನ
LARK (2023) - ಪ್ರವರ್ತಕ ಕೃತಿ
ಚಿತ್ರ 2: 14 ರೀತಿಯ ಪ್ರಶ್ನೆಗಳ ವಿಭಜನಾ ತಂತ್ರಗಳು. 3p ಅನ್ನು 3 ಪ್ರೊಜೆಕ್ಷನ್ಗಳಾಗಿ ವಿಂಗಡಿಸಲಾಗಿದೆ, 3i ಅನ್ನು 3 ಪ್ರೊಜೆಕ್ಷನ್ಗಳು + 1 ಛೇದಕವಾಗಿ ವಿಂಗಡಿಸಲಾಗಿದೆ.
ಪ್ರಮುಖ ಆವಿಷ್ಕಾರ: ಪ್ರಶ್ನೆ ಅಮೂರ್ತತೆ + ತಾರ್ಕಿಕ ಸರಪಳಿ ವಿಭಜನೆ
ಘಟಕ ವಿನ್ಯಾಸ ಪ್ರಶ್ನೆ ಅಮೂರ್ತತೆ ಘಟಕ/ಸಂಬಂಧವನ್ನು ID ಯೊಂದಿಗೆ ಬದಲಾಯಿಸಿ, ಭ್ರಮೆಯನ್ನು ನಿವಾರಿಸಿ, ಸಾಮಾನ್ಯೀಕರಣವನ್ನು ಸುಧಾರಿಸಿ ನೆರೆಹೊರೆಯ ಮರುಪಡೆಯುವಿಕೆ k-ಹಾಪ್ ಆಳ-ಮೊದಲ ಆದ್ಯತೆಯ ಟ್ರಾವರ್ಸಲ್ (k=3), ಸಂಬಂಧಿತ ಉಪಗ್ರಾಫ್ ಅನ್ನು ಹೊರತೆಗೆಯಿರಿ ಸರಪಳಿ ವಿಭಜನೆ ಬಹು-ಕಾರ್ಯಾಚರಣೆಯ ಪ್ರಶ್ನೆ → ಏಕ-ಕಾರ್ಯಾಚರಣೆಯ ಉಪಪ್ರಶ್ನೆ ಅನುಕ್ರಮ ಅನುಕ್ರಮ ತಾರ್ಕಿಕ ಮಧ್ಯಂತರ ಫಲಿತಾಂಶಗಳನ್ನು ಸಂಗ್ರಹಿಸಿ, ತಾರ್ಕಿಕ ಕ್ರಮದಲ್ಲಿ ಪ್ಲೇಸ್ಹೋಲ್ಡರ್ಗಳನ್ನು ಬದಲಾಯಿಸಿ ಪ್ರಮುಖ ಒಳನೋಟ: LLM ಸರಳ ಪ್ರಶ್ನೆಗಳಲ್ಲಿ ಉತ್ತಮವಾಗಿದೆ, ಸಂಕೀರ್ಣ ಪ್ರಶ್ನೆಗಳನ್ನು ವಿಭಜಿಸಿದ ನಂತರ ಕಾರ್ಯಕ್ಷಮತೆ 20%-33% ರಷ್ಟು ಸುಧಾರಿಸುತ್ತದೆ.
ROG (2025) - ಸುಧಾರಿತ ಆವೃತ್ತಿ
LARK ಚೌಕಟ್ಟನ್ನು ಆನುವಂಶಿಕವಾಗಿ ಪಡೆಯುತ್ತದೆ, ಏಜೆಂಟ್ ಒಮ್ಮತದ ಕಾರ್ಯವಿಧಾನವನ್ನು ಸೇರಿಸಲಾಗಿದೆ:
ROG = LARK ಕೋರ್ + ಬಹು-ಏಜೆಂಟ್ ಸಹಯೋಗ + ಚಿಂತನೆಯ ಸರಪಳಿ ಬಲವರ್ಧನೆ
ಸುಧಾರಣೆಗಳ ವಿವರಣೆ ಏಜೆಂಟ್ ವಿನ್ಯಾಸ ಬುದ್ಧಿವಂತ ಏಜೆಂಟ್ = ಜ್ಞಾನ ನೆಲೆ + LLM, ಬಹು-ಏಜೆಂಟ್ ಒಮ್ಮತದ ನಿರ್ಧಾರ CoT ವರ್ಧನೆ ಹೆಚ್ಚು ಸ್ಪಷ್ಟವಾದ ಚಿಂತನೆಯ ಸರಪಳಿ ಪ್ರಾಂಪ್ಟ್ ಟೆಂಪ್ಲೇಟ್ ದೇಶೀಯ ಹೊಂದಾಣಿಕೆ ChatGLM+Neo4j ಅನ್ನು ಆಧರಿಸಿದೆ, ವಿದ್ಯುತ್ ಶಕ್ತಿ ಮತ್ತು ಇತರ ಲಂಬ ಕ್ಷೇತ್ರಗಳಿಗೆ ಗುರಿಯಾಗಿದೆ
ROG ಯ ಡೇಟಾ ಫ್ಲೋ ಮಾದರಿ
ಕಾರ್ಯಕ್ಷಮತೆಯ ಹೆಚ್ಚಳ: FB15k ನಲ್ಲಿ, ip ಪ್ರಶ್ನೆ (ಛೇದನದ ನಂತರ ಪ್ರೊಜೆಕ್ಷನ್) MRR 29.3→62.0 ರಿಂದ 111% ರಷ್ಟು ಹೆಚ್ಚಾಗಿದೆ!
ಕೋಷ್ಟಕ 1: FB15k ಡೇಟಾಸೆಟ್ MRR ಹೋಲಿಕೆ. ROG ಸಮಗ್ರವಾಗಿ ಮುಂಚೂಣಿಯಲ್ಲಿದೆ, ಸಂಯುಕ್ತ ಪ್ರಶ್ನೆಗಳು ಅತ್ಯಂತ ಮಹತ್ವದ ಸುಧಾರಣೆಯನ್ನು ಹೊಂದಿವೆ.
ಮೂರು, ಮಾದರಿ ಸ್ಥಾಪನೆ ಮತ್ತು ಭವಿಷ್ಯದ ನಿರ್ದೇಶನ
ಎರಡು ತಲೆಮಾರಿನ ಪ್ರಬಂಧಗಳು ಒಂದು ಮಾದರಿಯನ್ನು ಒಟ್ಟಿಗೆ ಪರಿಶೀಲಿಸುತ್ತವೆ:
"ಮರುಪಡೆಯುವಿಕೆ ವರ್ಧನೆ + ಪ್ರಶ್ನೆ ವಿಭಜನೆ + LLM ತೀರ್ಮಾನ" KG ಸಂಕೀರ್ಣ ತಾರ್ಕಿಕ ತೀರ್ಮಾನಕ್ಕೆ ಪರಿಣಾಮಕಾರಿ ಮಾರ್ಗವಾಗಿದೆ.
ಪ್ರಮುಖ ಪ್ರವೃತ್ತಿಗಳು:
- ಅಮೂರ್ತೀಕರಣವು ನಿರ್ಣಾಯಕವಾಗಿದೆ - ಶಬ್ದಾರ್ಥದ ಶಬ್ದವನ್ನು ತೆಗೆದುಹಾಕಿ, ತಾರ್ಕಿಕ ರಚನೆಯ ಮೇಲೆ ಕೇಂದ್ರೀಕರಿಸಿ
- ವಿಭಜನಾ ತಂತ್ರವು ಮೇಲಿನ ಮಿತಿಯನ್ನು ನಿರ್ಧರಿಸುತ್ತದೆ - ಸರಪಳಿ ವಿಭಜನೆಯು ಎಂಡ್-ಟು-ಎಂಡ್ ಗಿಂತ ಹೆಚ್ಚು ವಿಶ್ವಾಸಾರ್ಹವಾಗಿದೆ
- ಮಾದರಿ ಸಾಮರ್ಥ್ಯವು ನಿರಂತರವಾಗಿ ಬಿಡುಗಡೆಯಾಗುತ್ತದೆ - Llama2-7B ನಿಂದ ChatGLM ವರೆಗೆ, ಮೂಲದ ಪ್ರಗತಿಯು ಗಮನಾರ್ಹ ಲಾಭಗಳನ್ನು ತರುತ್ತದೆ
ROG ಯ ಏಜೆಂಟ್ ಕಾರ್ಯವಿಧಾನವು ವ್ಯಾಖ್ಯಾನಿಸುವಿಕೆಯನ್ನು ಹೆಚ್ಚಿಸಿದರೂ, ಪ್ರಮುಖ ಆವಿಷ್ಕಾರವು ಸೈದ್ಧಾಂತಿಕ ಪ್ರಗತಿಯ ಬದಲು ಎಂಜಿನಿಯರಿಂಗ್ ಆಪ್ಟಿಮೈಸೇಶನ್ನಲ್ಲಿದೆ. ಭವಿಷ್ಯದ ನಿರ್ದೇಶನಗಳು ಡೈನಾಮಿಕ್ ವಿಭಜನಾ ತಂತ್ರಗಳು (ಸ್ವಯಂ-ಹೊಂದಾಣಿಕೆಯ ಪ್ರಶ್ನೆ ಸಂಕೀರ್ಣತೆ), ಮಲ್ಟಿಮೋಡಲ್ KG ಸಮ್ಮಿಳನ ಮತ್ತು ದೊಡ್ಡ ಪ್ರಮಾಣದ ಮುಕ್ತ ಡೊಮೇನ್ ಪರಿಶೀಲನೆಯಲ್ಲಿರಬಹುದು.





