بدون تعديل المعلمات، فقط اكتب الكود! عمل جديد لفريق Jeff Clune: وحدة ذاكرة متطورة تلقائيًا بواسطة Meta Agent
بدون تعديل المعلمات، فقط اكتب الكود! عمل جديد لفريق Jeff Clune: وحدة ذاكرة متطورة تلقائيًا بواسطة Meta Agent
في الطريق إلى Software 3.0، يبدأ الذكاء الاصطناعي في كتابة كود Python الخاص به لتطوير الدماغ.

في أعماق تطوير Agent، تظل الذاكرة (Memory) نقطة مؤلمة لا يمكن تجاوزها.
على الرغم من أن قدرات النموذج الأساسي تزداد قوة يومًا بعد يوم، إلا أنها في جوهرها عديمة الحالة (Stateless) في عملية الاستدلال، مما يحد من قدرة Agent على تجميع الخبرات باستمرار.
في الوقت الحالي، سواء كانت RAG أو ملخصات النوافذ المنزلقة، فإن الحلول السائدة في الصناعة لمعالجة الذاكرة لا تزال في جوهرها في مرحلة القواعد الاسترشادية المصممة يدويًا.
وحدة الذاكرة المصممة يدويًا هذه هشة للغاية ويصعب نقلها. بمجرد وضع Prompt ومنطق الاسترجاع الذي تم ضبطه بدقة لأنظمة الحوار في مهام التخطيط طويلة المدى (مثل ALFWorld) أو ألعاب الإستراتيجية المعقدة، غالبًا ما تفشل مباشرة.

لمعالجة هذه المعضلة، قدم فريق Jeff Clune، أستاذ UBC وباحث سابق في OpenAI، حلاً عبقريًا.
نظرًا لعدم معرفة أفضل هيكل للذاكرة، دع Agent يكتب كود Python الخاص به لتصميمه.
هذا هو ALMA (Automated meta-Learning of Memory designs for Agentic systems) الذي تم إصداره للتو.
من ADAS إلى ALMA: تصميم آلي يعتمد على الكود
ALMA هو استمرار للمسار التقني لخوارزمية التوليد بالذكاء الاصطناعي الذي يروج له هذا الفريق مؤخرًا.

في ADAS (Automated Design of Agentic Systems)، أثبت الفريق أنه عند تصميم بنية Agent، يكون الكود مساحة بحث أكثر كفاءة من أوزان الشبكة العصبية أو Soft Prompts. يتمتع الكود باكتمال تورينج ولديه قابلية تفسير قوية للغاية.

لاحقًا في DGM (Darwin Gödel Machine)، قدم الفريق مفهوم الاستكشاف المفتوح في الخوارزميات التطورية، وحافظ على أرشيف تصميم لتشجيع النموذج على استكشاف حلول جديدة.

يرث ALMA نموذج توليد الكود الخاص بـ ADAS واستراتيجية التطور الخاصة بـ DGM، ويركز سيناريوهات التطبيق على الذاكرة، وهي المكون الأكثر اعتمادًا على الخبرة البشرية في نظام Agent.
آلية عمل ALMA
آلية تشغيل ALMA هي حلقة مغلقة قياسية للتعلم الفائق. لم يعد Meta Agent يعالج المهام مباشرة، ولكنه مسؤول عن البرمجة. تتضمن العملية أربع مراحل:
- التصور: تحليل أرشيف تصميم الذاكرة الحالي، وتصور خطط التحسين بناءً على الأداء التاريخي
- التخطيط: تحويل التصور إلى منطق شبه كود
- التنفيذ: كتابة كود Python قابل للتنفيذ، وتحديد الوظائف الأساسية
- التقييم: نشر الكود الذي تم إنشاؤه في بيئة معزولة لتنفيذ المهام، وإرجاع مؤشرات الأداء

في عملية التطور، سينشئ ALMA شجرة تصميم ضخمة. مع زيادة عدد التكرارات، يتطور كود الذاكرة الذي تم إنشاؤه تدريجيًا من منطق تخزين بسيط إلى بنية معرفية معقدة.

هيكل الذاكرة المتطور
أظهر تصميم الذاكرة الذي تم إنشاؤه بواسطة ALMA اختلافات كبيرة في المهام المختلفة:
- MiniHack (استكشاف الزنزانة): تم تصميم وحدة Risk and Interaction، وتسجيل العمليات التي تؤدي إلى فقدان الدم وعدوانية الوحوش بشكل صريح
- Baba Is AI (لغز منطقي): تم تصميم Strategy Library، وتسجيل مجموعات القواعد المطلوبة لاجتياز المستوى

يشير هذا إلى أن الذكاء الاصطناعي قادر على التعرف على خصائص المهمة: تحتاج ألعاب البقاء على قيد الحياة إلى الاهتمام بالمخاطر، وتحتاج ألعاب الألغاز إلى الاهتمام بتجريد القواعد.
نتائج التجربة
تمت مقارنة ALMA مع الخطوط الأساسية السائدة في أربع بيئات: TextWorld و ALFWorld و MiniHack و Baba Is AI.
على نموذج GPT-5-mini، وصل متوسط معدل نجاح ALMA إلى 53.9%، وهو أفضل من G-Memory (46.0%) و Trajectory Retrieval (48.6%).

من حيث كفاءة التكلفة، يستهلك ALMA في المتوسط 1,319 رمزًا فقط، بينما يستهلك Trajectory Retrieval ما يصل إلى 9,149 رمزًا، ووصل G-Memory أيضًا إلى 6,055 رمزًا. حقق ALMA أداءً أفضل بتكلفة تبلغ حوالي 1/7 إلى 1/5 فقط.

خاتمة
يعرض ALMA إمكانية الانتقال من Software 2.0 (الشبكات العصبية) إلى Software 3.0 (خوارزميات التوليد بالذكاء الاصطناعي).
في تطوير Agent، اعتمد تصميم وحدة الذاكرة لفترة طويلة على حدس المهندسين. أثبت ALMA أنه من خلال التعلم الفائق وتوليد التعليمات البرمجية، يمكن للذكاء الاصطناعي اكتشاف بنية الذاكرة المثلى تلقائيًا وفقًا لبيئات محددة.
روابط الموارد
- الورقة البحثية: https://arxiv.org/pdf/2602.07755
- الكود: https://github.com/zksha/alma
- الصفحة الرئيسية للمشروع: https://yimingxiong.me/alma





