Bez podešavanja parametara, samo pisanje koda! Novi rad tima Jeffa Clunea: Meta Agent automatski evoluira memorijske module

2/14/2026
4 min read

Bez podešavanja parametara, samo pisanje koda! Novi rad tima Jeffa Clunea: Meta Agent automatski evoluira memorijske module

Na putu prema Software 3.0, AI počinje sam pisati Python kod za evoluciju mozga.

ALMA

U dubokim vodama razvoja Agenta, memorija (Memory) je uvijek bolna točka koju se ne može zaobići.

Iako su mogućnosti temeljnih modela sve jače, u procesu zaključivanja su u biti bez stanja (Stateless), što ograničava sposobnost Agenta da kontinuirano akumulira iskustvo.

Trenutno, bez obzira je li glavno rješenje za obradu memorije u industriji RAG ili sažetak kliznog prozora, u biti ostaje u fazi heurističkih pravila dizajniranih ručno.

Ovaj ručno izrađeni memorijski modul izuzetno je krhak i teško ga je prenijeti. Pažljivo podešeni Prompt i logika pretraživanja za sustave za razgovor često će izravno otkazati kada se stave u zadatke dugoročnog planiranja (kao što je ALFWorld) ili složene strateške igre.

ALMA arhitektura

Kao odgovor na ovu poteškoću, tim profesora UBC-a i bivšeg istraživača OpenAI-a Jeffa Clunea dao je geekovsko rješenje.

Budući da ne znamo koja je memorijska struktura najbolja, neka Agent sam piše Python kod za dizajn.

Ovo je upravo objavljeni ALMA (Automated meta-Learning of Memory designs for Agentic systems).

Od ADAS-a do ALMA-e: Automatizirani dizajn temeljen na kodu

ALMA je nastavak tehničkog puta AI generiranih algoritama koje je tim nedavno promovirao.

ADAS

U ADAS-u (Automated Design of Agentic Systems), tim je dokazao da je kod učinkovitiji prostor pretraživanja od neuronskih mreža ili Soft Prompts pri dizajniranju arhitekture Agenta. Kod ima Turingovu potpunost i izuzetnu interpretabilnost.

Meta Agent

Kasnije, u DGM-u (Darwin Gödel Machine), tim je uveo koncept otvorene eksploracije u evolucijskom algoritmu, održavajući arhivu dizajna i potičući model da istražuje nova rješenja.

DGM

ALMA nasljeđuje ADAS-ovu paradigmu generiranja koda i DGM-ovu evolucijsku strategiju, fokusirajući scenarije primjene na komponente Agent sustava koje najviše ovise o ljudskom iskustvu - memoriju.

Kako ALMA radi

Mehanizam rada ALMA-e je standardna meta-learning zatvorena petlja. Meta Agent više ne obrađuje izravno zadatke, već je odgovoran za programiranje. Proces uključuje četiri faze:

  • Koncept: Analizirajte trenutnu arhivu dizajna memorije i osmislite poboljšanja na temelju povijesnih performansi
  • Planiranje: Pretvorite koncept u logiku pseudokoda
  • Implementacija: Napišite izvršni Python kod, definirajte temeljne funkcije
  • Procjena: Implementirajte generirani kod u sandbox okruženje za izvršavanje zadataka i povratne informacije o pokazateljima performansi

Radni proces

U procesu evolucije, ALMA će generirati ogromno stablo dizajna. S povećanjem broja iteracija, generirani memorijski kod postupno evoluira od jednostavne logike pohrane do složene kognitivne arhitekture.

Evolucijsko stablo

Evoluirane memorijske strukture

Memorijski dizajn koji je generirala ALMA pokazao je velike razlike u različitim zadacima:

  • MiniHack (istraživanje tamnice): Dizajnirao je modul Risk and Interaction, eksplicitno bilježeći operacije koje dovode do gubitka krvi i agresivnost čudovišta
  • Baba Is AI (logička zagonetka): Dizajnirao je Strategy Library, bilježeći kombinacije pravila potrebne za prolazak razina

Memorijska struktura

To pokazuje da AI može prepoznati karakteristike zadatka: igre preživljavanja moraju obratiti pozornost na rizik, a igre zagonetke moraju obratiti pozornost na apstrakciju pravila.

Rezultati eksperimenta

ALMA je uspoređena s glavnim osnovnim linijama u četiri okruženja: TextWorld, ALFWorld, MiniHack, Baba Is AI.

Na modelu GPT-5-mini, prosječna stopa uspješnosti ALMA-e dosegnula je 53,9%, što je bolje od G-Memory (46,0%) i Trajectory Retrieval (48,6%).

Rezultati eksperimenta

U pogledu troškovne učinkovitosti, ALMA u prosjeku troši samo 1.319 tokena, dok Trajectory Retrieval troši čak 9.149 tokena, a G-Memory također doseže 6.055 tokena. ALMA je postigla bolje performanse uz samo oko 1/7 do 1/5 troškova.

Troškovna učinkovitost

Zaključak

ALMA pokazuje mogućnost prijelaza sa Software 2.0 (Neural Networks) na Software 3.0 (AI-Generating Algorithms).

U razvoju Agenta, dizajn memorijskih modula dugo se oslanjao na intuiciju inženjera. ALMA je dokazala da meta-učenjem i generiranjem koda, AI može automatski otkriti optimalnu memorijsku arhitekturu prema specifičnom okruženju.

Resursi

Published in Technology

You Might Also Like