Без настройка на параметри, само писане на код! Новата работа на екипа на Jeff Clune: Meta Agent автоматично развива модули за памет
Без настройка на параметри, само писане на код! Новата работа на екипа на Jeff Clune: Meta Agent автоматично развива модули за памет
По пътя към Software 3.0, AI започва сам да пише Python код, за да развива мозъка си.

В дълбоките води на разработката на Agent, паметта (Memory) винаги е болезнена точка, която не може да бъде заобиколена.
Въпреки че възможностите на основните модели непрекъснато нарастват, в процеса на разсъждение те по същество са без състояние (Stateless), което ограничава способността на Agent да натрупва опит непрекъснато.
Понастоящем основните решения в индустрията за обработка на паметта, независимо дали са RAG или резюмета на плъзгащи се прозорци, по същество остават на етапа на евристични правила, проектирани ръчно.
Този ръчно изработен модул за памет е изключително крехък и труден за прехвърляне. Prompt и логиката за извличане, фино настроени за диалогови системи, често ще се провалят директно, след като бъдат поставени в задачи за дългосрочно планиране (като ALFWorld) или сложни стратегически игри.

За да се справи с тази дилема, екипът на професора от UBC и бивш изследовател на OpenAI Jeff Clune даде маниакално решение.
Тъй като не е известно коя структура на паметта е най-добра, нека Agent сам напише Python код, за да я проектира.
Това е новоиздаденият ALMA (Automated meta-Learning of Memory designs for Agentic systems).
От ADAS до ALMA: Автоматизиран дизайн, базиран на код
ALMA е продължение на техническия маршрут на алгоритмите за генериране на AI, популяризиран наскоро от екипа.

В ADAS (Automated Design of Agentic Systems) екипът доказа, че кодът е по-ефективно пространство за търсене от невронните мрежови тегла или Soft Prompts при проектирането на Agent архитектура. Кодът има пълнота на Тюринг и има силна обяснителна способност.

След това в DGM (Darwin Gödel Machine) екипът въведе концепцията за отворено изследване в еволюционните алгоритми, поддържайки архив на дизайна, за да насърчи модела да изследва нови решения.

ALMA наследява парадигмата за генериране на код на ADAS и еволюционната стратегия на DGM, фокусирайки сценариите на приложение върху компонента на Agent системата, който най-много зависи от човешкия опит - паметта.
Работен механизъм на ALMA
Механизмът на работа на ALMA е стандартен мета-учебен затворен цикъл. Meta Agent вече не обработва директно задачи, а е отговорен за програмирането. Процесът включва четири етапа:
- Концепция: Анализирайте текущия архив на дизайна на паметта и формулирайте планове за подобрение въз основа на историческото представяне
- Планиране: Превърнете концепцията в псевдокод логика
- Реализация: Напишете изпълним Python код, за да дефинирате основните функции
- Оценка: Разгърнете генерирания код в среда на пясъчник, за да изпълнявате задачи и да давате обратна връзка за показателите за ефективност

В процеса на еволюция ALMA ще генерира огромно дърво на дизайна. С увеличаването на броя на итерациите, генерираният код на паметта постепенно се развива от проста логика за съхранение до сложна когнитивна архитектура.

Еволюирала структура на паметта
Проектите на паметта, генерирани от ALMA, показват големи различия в различните задачи:
- MiniHack (приключение в подземие): Проектиран е модул Risk and Interaction, който изрично записва операциите, които водят до загуба на кръв, и агресивността на чудовищата
- Baba Is AI (логически пъзел): Проектирана е Strategy Library, която записва комбинациите от правила, необходими за преминаване на нивата

Това показва, че AI може да идентифицира характеристиките на задачата: игрите за оцеляване трябва да се фокусират върху риска, а пъзел игрите трябва да се фокусират върху абстракцията на правилата.
Резултати от експерименти
ALMA е сравнен с основните базови линии в четири среди: TextWorld, ALFWorld, MiniHack, Baba Is AI.
В модела GPT-5-mini средният процент на успеваемост на ALMA достига 53,9%, което е по-добре от G-Memory (46,0%) и Trajectory Retrieval (48,6%).

По отношение на ефективността на разходите, ALMA консумира средно само 1319 tokens, докато Trajectory Retrieval консумира до 9149 tokens, а G-Memory също достига 6055 tokens. ALMA постига по-добра производителност само с около 1/7 до 1/5 от разходите.

Заключение
ALMA демонстрира възможност за преход от Software 2.0 (Neural Networks) към Software 3.0 (AI-Generating Algorithms).
В разработката на Agent, дизайнът на модула за памет отдавна зависи от интуицията на инженерите. ALMA доказа, че чрез мета-обучение и генериране на код, AI може автоматично да открие оптималната архитектура на паметта според конкретната среда.
Връзки към ресурси
- Документ: https://arxiv.org/pdf/2602.07755
- Код: https://github.com/zksha/alma
- Начална страница на проекта: https://yimingxiong.me/alma





