Fără reglaje, doar cod! Noul proiect al echipei Jeff Clune: Meta Agent evoluează automat module de memorie

2/14/2026
4 min read

Fără reglaje, doar cod! Noul proiect al echipei Jeff Clune: Meta Agent evoluează automat module de memorie

Către Software 3.0, AI începe să scrie singur cod Python pentru a-și evolua creierul.

ALMA

În zona profundă a dezvoltării de agenți, memoria (Memory) este întotdeauna un punct sensibil inevitabil.

Deși capacitățile modelelor de bază sunt din ce în ce mai puternice, în esență, acestea sunt fără stare (Stateless) în timpul procesului de inferență, ceea ce limitează capacitatea agentului de a acumula continuu experiență.

În prezent, soluțiile principale din industrie pentru gestionarea memoriei, fie că este vorba de RAG sau de rezumate cu ferestre glisante, rămân în esență în stadiul regulilor euristice proiectate manual.

Acest tip de modul de memorie creat manual este extrem de fragil și dificil de migrat. Prompt-urile și logica de recuperare reglate fin pentru sistemele de dialog vor eșua adesea direct atunci când sunt plasate în sarcini de planificare pe termen lung (cum ar fi ALFWorld) sau jocuri de strategie complexe.

Arhitectura ALMA

Pentru a rezolva această dilemă, echipa profesorului UBC și fost cercetător OpenAI, Jeff Clune, a oferit o soluție geek.

Deoarece nu știm care structură de memorie este cea mai bună, lăsați agentul să scrie singur cod Python pentru a o proiecta.

Acesta este ALMA (Automated meta-Learning of Memory designs for Agentic systems) tocmai lansat.

De la ADAS la ALMA: Proiectare automată bazată pe cod

ALMA este o continuare a rutei tehnice a algoritmilor de generare AI promovată recent de această echipă.

ADAS

În ADAS (Automated Design of Agentic Systems), echipa a demonstrat că, atunci când se proiectează arhitectura Agent, codul este un spațiu de căutare mai eficient decât ponderile rețelei neuronale sau Soft Prompts. Codul are completitudine Turing și are o interpretabilitate extrem de puternică.

Meta Agent

Ulterior, în DGM (Darwin Gödel Machine), echipa a introdus conceptul de explorare deschisă din algoritmii evolutivi, menținând o arhivă de proiectare pentru a încuraja modelul să exploreze soluții noi.

DGM

ALMA moștenește paradigma de generare de cod a ADAS și strategia evolutivă a DGM, concentrându-și scenariile de aplicare pe componenta cea mai dependentă de experiența umană din sistemul Agent - memoria.

Mecanismul de lucru al ALMA

Mecanismul de funcționare al ALMA este o buclă închisă standard de meta-învățare. Meta Agent nu mai gestionează direct sarcinile, ci este responsabil pentru programare. Procesul include patru etape:

  • Concepere: Analizați arhiva curentă de proiectare a memoriei și concepeți scheme de îmbunătățire pe baza performanței istorice
  • Planificare: Transformați conceptele în logică pseudo-cod
  • Implementare: Scrieți cod Python executabil, definiți funcțiile de bază
  • Evaluare: Implementați codul generat într-un mediu sandbox pentru a executa sarcini și a oferi feedback cu privire la indicatorii de performanță

Flux de lucru

În timpul procesului de evoluție, ALMA va genera un arbore de proiectare vast. Pe măsură ce numărul de pași de iterație crește, codul de memorie generat evoluează treptat de la o logică simplă de stocare la o arhitectură cognitivă complexă.

Arbore evolutiv

Structura de memorie evoluată

Proiectele de memorie generate de ALMA au arătat diferențe mari în diferite sarcini:

  • MiniHack (explorare de temnițe): A proiectat modulele Risk and Interaction, înregistrând în mod explicit operațiunile care duc la pierderea de sânge și agresivitatea monștrilor
  • Baba Is AI (puzzle logic): A proiectat Strategy Library, înregistrând combinațiile de reguli necesare pentru a trece nivelurile

Structura memoriei

Aceasta arată că AI poate identifica caracteristicile sarcinii: jocurile de supraviețuire trebuie să acorde atenție riscurilor, iar jocurile puzzle trebuie să acorde atenție abstractizării regulilor.

Rezultatele experimentului

ALMA a fost comparat cu liniile de bază principale în patru medii: TextWorld, ALFWorld, MiniHack, Baba Is AI.

Pe modelul GPT-5-mini, rata medie de succes a ALMA a atins 53,9%, ceea ce este mai bine decât G-Memory (46,0%) și Trajectory Retrieval (48,6%).

Rezultatele experimentului

În ceea ce privește eficiența costurilor, ALMA consumă în medie doar 1.319 tokens, în timp ce Trajectory Retrieval consumă până la 9.149 tokens, iar G-Memory atinge, de asemenea, 6.055 tokens. ALMA a obținut performanțe mai bune cu doar aproximativ 1/7 până la 1/5 din costuri.

Eficiența costurilor

Concluzie

ALMA demonstrează o posibilitate de tranziție de la Software 2.0 (Rețele neuronale) la Software 3.0 (Algoritmi de generare AI).

În dezvoltarea Agent, proiectarea modulelor de memorie s-a bazat mult timp pe intuiția inginerilor. ALMA a demonstrat că, prin meta-învățare și generare de cod, AI poate descoperi automat cea mai bună arhitectură de memorie în funcție de mediul specific.

Link-uri de resurse

Published in Technology

You Might Also Like