Nem kell paramétereket hangolni, csak kódot írni! Jeff Clune csapatának új alkotása: Meta Agent automatikusan evolválódó memória modul

2/14/2026
4 min read

Nem kell paramétereket hangolni, csak kódot írni! Jeff Clune csapatának új alkotása: Meta Agent automatikusan evolválódó memória modul

Úton a Software 3.0 felé, a mesterséges intelligencia elkezdi saját Python kódját írni az agyának evolúciójához.

ALMA

Az Agent fejlesztés mélyvizében a memória (Memory) mindig is egy elkerülhetetlen fájdalmas pont volt.

Bár az alapmodellek képességei egyre erősebbek, a következtetési folyamat során lényegében állapotmentesek (Stateless), ami korlátozza az Agentek képességét a tapasztalatok folyamatos gyűjtésére.

A memória kezelésére jelenleg az iparágban a legelterjedtebb megoldások, legyen az RAG vagy csúszóablakos kivonatolás, lényegében még mindig a kézzel tervezett heurisztikus szabályok szakaszában vannak.

Ez a kézzel összetákolt memória modul rendkívül törékeny és nehezen átvihető. A párbeszédrendszerekhez gondosan hangolt Prompt és lekérdezési logika, ha hosszú távú tervezési feladatokba (mint például az ALFWorld) vagy komplex stratégiai játékokba kerül, gyakran azonnal hatástalanná válik.

ALMA architektúra

Erre a problémára a UBC professzora, az OpenAI korábbi kutatója, Jeff Clune csapata egy geek megoldást adott.

Mivel nem tudjuk, hogy milyen memória struktúra a legjobb, hagyjuk, hogy az Agent maga írjon Python kódot a tervezéshez.

Ez a most kiadott ALMA (Automated meta-Learning of Memory designs for Agentic systems).

Az ADAS-tól az ALMA-ig: Kódbázisú automatizált tervezés

Az ALMA a csapat által a közelmúltban támogatott AI generált algoritmus technológiai útvonalának folytatása.

ADAS

Az ADAS (Automated Design of Agentic Systems) keretében a csapat bebizonyította, hogy az Agent architektúra tervezésekor a kód hatékonyabb keresési tér, mint a neurális hálózatok súlyai vagy a Soft Prompts. A kód Turing-teljes, és rendkívül jól értelmezhető.

Meta Agent

Később a DGM (Darwin Gödel Machine) keretében a csapat bevezette az evolúciós algoritmusok nyílt felfedezésének koncepcióját, fenntartva egy tervezési archívumot, ösztönözve a modellt az újszerű megoldások feltárására.

DGM

Az ALMA örökölte az ADAS kódgenerálási paradigmáját és a DGM evolúciós stratégiáját, az alkalmazási területet az Agent rendszerek leginkább emberi tapasztalatra támaszkodó komponensére – a memóriára – összpontosítva.

Az ALMA működési mechanizmusa

Az ALMA működési mechanizmusa egy szabványos meta-tanulási zárt ciklus. A Meta Agent már nem közvetlenül kezeli a feladatokat, hanem a programozásért felelős. A folyamat négy szakaszból áll:

  • Koncepció: Elemzi a jelenlegi memória tervezési archívumot, és a korábbi teljesítmény alapján javítási javaslatokat fogalmaz meg.
  • Tervezés: A koncepciót pszeudokód logikává alakítja.
  • Megvalósítás: Végrehajtható Python kódot ír, meghatározva a kulcsfontosságú függvényeket.
  • Értékelés: A generált kódot egy sandbox környezetben telepíti a feladatok végrehajtására, visszajelezve a teljesítménymutatókat.

Munkamenet

Az evolúciós folyamat során az ALMA egy hatalmas tervezési fát generál. Az iterációs lépések számának növekedésével a generált memória kód fokozatosan az egyszerű tárolási logikától a komplex kognitív architektúrákig fejlődik.

Evolúciós fa

Az evolválódott memória struktúrák

Az ALMA által generált memória tervek nagy eltéréseket mutattak a különböző feladatokban:

  • MiniHack (börtön felfedezés): Tervezett egy Risk and Interaction modult, amely explicit módon rögzíti a vérvesztést okozó műveleteket és a szörnyek agresszivitását.
  • Baba Is AI (logikai rejtvény): Tervezett egy Strategy Library-t, amely rögzíti a szintek teljesítéséhez szükséges szabálykombinációkat.

Memória struktúra

Ez azt mutatja, hogy a mesterséges intelligencia képes azonosítani a feladatjellemzőket: a túlélési játékoknak a kockázatokra kell összpontosítaniuk, a rejtvényfejtő játékoknak pedig a szabályok absztrakciójára.

Kísérleti eredmények

A TextWorld, ALFWorld, MiniHack, Baba Is AI négy környezetben összehasonlították az ALMA-t a mainstream alapértékekkel.

A GPT-5-mini modellen az ALMA átlagos sikerességi aránya elérte az 53,9%-ot, ami jobb, mint a G-Memory (46,0%) és a Trajectory Retrieval (48,6%).

Kísérleti eredmények

A költséghatékonyság szempontjából az ALMA átlagosan csak 1319 tokent fogyasztott, míg a Trajectory Retrieval akár 9149 tokent is, a G-Memory pedig elérte a 6055 tokent. Az ALMA körülbelül 1/7-ed vagy 1/5-öd költséggel jobb teljesítményt ért el.

Költséghatékonyság

Zárszó

Az ALMA bemutatja a Software 2.0 (Neurális Hálózatok) felől a Software 3.0 (AI-Generáló Algoritmusok) felé való átmenet lehetőségét.

Az Agent fejlesztésben a memória modulok tervezése hosszú ideje a mérnökök intuíciójára támaszkodik. Az ALMA bebizonyította, hogy a meta-tanulás és a kódgenerálás révén a mesterséges intelligencia képes automatikusan felfedezni az optimális memória architektúrát a konkrét környezetnek megfelelően.

Erőforrás linkek

Published in Technology

You Might Also Like