Nem kell paramétereket hangolni, csak kódot írni! Jeff Clune csapatának új alkotása: Meta Agent automatikusan evolválódó memória modul
Nem kell paramétereket hangolni, csak kódot írni! Jeff Clune csapatának új alkotása: Meta Agent automatikusan evolválódó memória modul
Úton a Software 3.0 felé, a mesterséges intelligencia elkezdi saját Python kódját írni az agyának evolúciójához.

Az Agent fejlesztés mélyvizében a memória (Memory) mindig is egy elkerülhetetlen fájdalmas pont volt.
Bár az alapmodellek képességei egyre erősebbek, a következtetési folyamat során lényegében állapotmentesek (Stateless), ami korlátozza az Agentek képességét a tapasztalatok folyamatos gyűjtésére.
A memória kezelésére jelenleg az iparágban a legelterjedtebb megoldások, legyen az RAG vagy csúszóablakos kivonatolás, lényegében még mindig a kézzel tervezett heurisztikus szabályok szakaszában vannak.
Ez a kézzel összetákolt memória modul rendkívül törékeny és nehezen átvihető. A párbeszédrendszerekhez gondosan hangolt Prompt és lekérdezési logika, ha hosszú távú tervezési feladatokba (mint például az ALFWorld) vagy komplex stratégiai játékokba kerül, gyakran azonnal hatástalanná válik.

Erre a problémára a UBC professzora, az OpenAI korábbi kutatója, Jeff Clune csapata egy geek megoldást adott.
Mivel nem tudjuk, hogy milyen memória struktúra a legjobb, hagyjuk, hogy az Agent maga írjon Python kódot a tervezéshez.
Ez a most kiadott ALMA (Automated meta-Learning of Memory designs for Agentic systems).
Az ADAS-tól az ALMA-ig: Kódbázisú automatizált tervezés
Az ALMA a csapat által a közelmúltban támogatott AI generált algoritmus technológiai útvonalának folytatása.

Az ADAS (Automated Design of Agentic Systems) keretében a csapat bebizonyította, hogy az Agent architektúra tervezésekor a kód hatékonyabb keresési tér, mint a neurális hálózatok súlyai vagy a Soft Prompts. A kód Turing-teljes, és rendkívül jól értelmezhető.

Később a DGM (Darwin Gödel Machine) keretében a csapat bevezette az evolúciós algoritmusok nyílt felfedezésének koncepcióját, fenntartva egy tervezési archívumot, ösztönözve a modellt az újszerű megoldások feltárására.

Az ALMA örökölte az ADAS kódgenerálási paradigmáját és a DGM evolúciós stratégiáját, az alkalmazási területet az Agent rendszerek leginkább emberi tapasztalatra támaszkodó komponensére – a memóriára – összpontosítva.
Az ALMA működési mechanizmusa
Az ALMA működési mechanizmusa egy szabványos meta-tanulási zárt ciklus. A Meta Agent már nem közvetlenül kezeli a feladatokat, hanem a programozásért felelős. A folyamat négy szakaszból áll:
- Koncepció: Elemzi a jelenlegi memória tervezési archívumot, és a korábbi teljesítmény alapján javítási javaslatokat fogalmaz meg.
- Tervezés: A koncepciót pszeudokód logikává alakítja.
- Megvalósítás: Végrehajtható Python kódot ír, meghatározva a kulcsfontosságú függvényeket.
- Értékelés: A generált kódot egy sandbox környezetben telepíti a feladatok végrehajtására, visszajelezve a teljesítménymutatókat.

Az evolúciós folyamat során az ALMA egy hatalmas tervezési fát generál. Az iterációs lépések számának növekedésével a generált memória kód fokozatosan az egyszerű tárolási logikától a komplex kognitív architektúrákig fejlődik.

Az evolválódott memória struktúrák
Az ALMA által generált memória tervek nagy eltéréseket mutattak a különböző feladatokban:
- MiniHack (börtön felfedezés): Tervezett egy Risk and Interaction modult, amely explicit módon rögzíti a vérvesztést okozó műveleteket és a szörnyek agresszivitását.
- Baba Is AI (logikai rejtvény): Tervezett egy Strategy Library-t, amely rögzíti a szintek teljesítéséhez szükséges szabálykombinációkat.

Ez azt mutatja, hogy a mesterséges intelligencia képes azonosítani a feladatjellemzőket: a túlélési játékoknak a kockázatokra kell összpontosítaniuk, a rejtvényfejtő játékoknak pedig a szabályok absztrakciójára.
Kísérleti eredmények
A TextWorld, ALFWorld, MiniHack, Baba Is AI négy környezetben összehasonlították az ALMA-t a mainstream alapértékekkel.
A GPT-5-mini modellen az ALMA átlagos sikerességi aránya elérte az 53,9%-ot, ami jobb, mint a G-Memory (46,0%) és a Trajectory Retrieval (48,6%).

A költséghatékonyság szempontjából az ALMA átlagosan csak 1319 tokent fogyasztott, míg a Trajectory Retrieval akár 9149 tokent is, a G-Memory pedig elérte a 6055 tokent. Az ALMA körülbelül 1/7-ed vagy 1/5-öd költséggel jobb teljesítményt ért el.

Zárszó
Az ALMA bemutatja a Software 2.0 (Neurális Hálózatok) felől a Software 3.0 (AI-Generáló Algoritmusok) felé való átmenet lehetőségét.
Az Agent fejlesztésben a memória modulok tervezése hosszú ideje a mérnökök intuíciójára támaszkodik. Az ALMA bebizonyította, hogy a meta-tanulás és a kódgenerálás révén a mesterséges intelligencia képes automatikusan felfedezni az optimális memória architektúrát a konkrét környezetnek megfelelően.
Erőforrás linkek
- Tanulmány: https://arxiv.org/pdf/2602.07755
- Kód: https://github.com/zksha/alma
- Projekt főoldala: https://yimingxiong.me/alma





