Нема потреба од прилагодување на параметри, само пишување код! Нов труд од тимот на Jeff Clune: Meta Agent автоматски еволуира мемориски модули
Нема потреба од прилагодување на параметри, само пишување код! Нов труд од тимот на Jeff Clune: Meta Agent автоматски еволуира мемориски модули
На патот кон Software 3.0, AI почнува сам да пишува Python код за да го еволуира мозокот.

Во длабоките води на развојот на Agent, меморијата (Memory) отсекогаш е болна точка што не може да се заобиколи.
Иако способностите на основните модели се зголемуваат, тие во суштина се без состојба (Stateless) во процесот на заклучување, што ја ограничува способноста на Agent постојано да акумулира искуство.
Во моментов, главните решенија во индустријата за справување со меморијата, без разлика дали се RAG или резимеа на лизгачки прозорци, во суштина остануваат во фазата на рачно дизајнирани хеуристички правила.
Овој вид на рачно изработен мемориски модул е исклучително кревок и тежок за пренесување. Prompt и логиката за пребарување кои се внимателно прилагодени за дијалошки системи честопати директно пропаѓаат кога се ставаат во задачи за долгорочно планирање (како што е ALFWorld) или сложени стратешки игри.

За да се реши овој проблем, тимот на професорот UBC и поранешен истражувач на OpenAI, Jeff Clune, даде гиковско решение.
Бидејќи не знаеме која мемориска структура е најдобра, дозволете му на Agent сам да пишува Python код за да ја дизајнира.
Ова е новообјавениот ALMA (Automated meta-Learning of Memory designs for Agentic systems).
Од ADAS до ALMA: Автоматизиран дизајн базиран на код
ALMA е продолжение на техничката рута на AI генерирани алгоритми што тимот неодамна ја промовираше.

Во ADAS (Automated Design of Agentic Systems), тимот докажа дека кодот е поефикасен простор за пребарување од невронските мрежни тежини или Soft Prompts при дизајнирање на Agent архитектура. Кодот има Turing комплетност и силна интерпретабилност.

Подоцна, во DGM (Darwin Gödel Machine), тимот го воведе концептот на отворено истражување во еволутивните алгоритми, одржувајќи архива за дизајн за да го охрабри моделот да истражува нови решенија.

ALMA ја наследува парадигмата за генерирање код на ADAS и еволутивната стратегија на DGM, фокусирајќи го сценариото за апликација на компонентата на Agent системот која најмногу зависи од човечкото искуство - меморијата.
Работен механизам на ALMA
Механизмот на работа на ALMA е стандардна мета-учење затворена јамка. Meta Agent повеќе не се занимава директно со задачи, туку е одговорен за програмирање. Процесот вклучува четири фази:
- Концептуализација: Анализирајте ја тековната архива за дизајн на меморија и концептуализирајте ги решенијата за подобрување врз основа на историските перформанси
- Планирање: Претворете ги концептите во псевдокод логика
- Имплементација: Напишете извршен Python код и дефинирајте ги основните функции
- Евалуација: Распоредете го генерираниот код во sandbox околина за да извршите задачи и да дадете повратни информации за показателите за перформанси

Во процесот на еволуција, ALMA ќе генерира огромно дрво на дизајн. Како што се зголемуваат чекорите на итерација, генерираниот мемориски код постепено еволуира од едноставна логика за складирање во сложена когнитивна архитектура.

Еволуирана мемориска структура
Меморискиот дизајн генериран од ALMA покажа големи разлики во различни задачи:
- MiniHack (истражување на зандана): Дизајниран е модул Risk and Interaction, кој експлицитно ги евидентира операциите што доведуваат до губење на крв и агресивноста на чудовиштата
- Baba Is AI (логичка загатка): Дизајнирана е Strategy Library, која ги евидентира комбинациите на правила потребни за да се помине нивото

Ова покажува дека AI може да ги идентификува карактеристиките на задачата: игрите за преживување треба да се фокусираат на ризик, а игрите со загатки треба да се фокусираат на апстракција на правила.
Резултати од експериментот
ALMA е споредена со главните основни линии во четири околини: TextWorld, ALFWorld, MiniHack, Baba Is AI.
На моделот GPT-5-mini, просечната стапка на успех на ALMA достигна 53.9%, што е подобро од G-Memory (46.0%) и Trajectory Retrieval (48.6%).

Во однос на ефикасноста на трошоците, ALMA во просек троши само 1,319 tokens, додека Trajectory Retrieval троши дури 9,149 tokens, а G-Memory достигнува 6,055 tokens. ALMA разменува подобри перформанси за само околу 1/7 до 1/5 од трошоците.

Заклучок
ALMA покажува можност за транзиција од Software 2.0 (Neural Networks) кон Software 3.0 (AI-Generating Algorithms).
Во развојот на Agent, дизајнот на меморискиот модул долго време зависи од интуицијата на инженерите. ALMA докажа дека преку мета-учење и генерирање код, AI може автоматски да ја открие оптималната мемориска архитектура според специфичната околина.
Линк до ресурси
- Труд: https://arxiv.org/pdf/2602.07755
- Код: https://github.com/zksha/alma
- Почетна страница на проектот: https://yimingxiong.me/alma





