Ingen parameterjustering, bare koding! Nytt verk fra Jeff Clune-teamet: Meta Agent automatisk utvikler minnemoduler
Ingen parameterjustering, bare koding! Nytt verk fra Jeff Clune-teamet: Meta Agent automatisk utvikler minnemoduler
På vei mot Software 3.0 begynner AI å skrive sin egen Python-kode for å utvikle hjernen.

I dypvannsområdet for Agent-utvikling er minne (Memory) alltid et smertepunkt som ikke kan unngås.
Selv om kapasiteten til grunnmodeller blir stadig kraftigere, er de i utgangspunktet statsløse (Stateless) under resonneringsprosessen, noe som begrenser Agentens evne til kontinuerlig å akkumulere erfaring.
De nåværende mainstream-løsningene for å håndtere minne i bransjen, enten det er RAG eller glidende vindussammendrag, forblir i utgangspunktet på stadiet av heuristiske regler designet av mennesker.
Denne typen manuelt utformede minnemoduler er ekstremt skjøre og vanskelige å overføre. Prompt- og gjenfinningslogikken som er nøye justert for dialogsystemer, vil ofte mislykkes direkte når de plasseres i langsiktige planleggingsoppgaver (som ALFWorld) eller komplekse strategispill.

For å løse dette problemet har Jeff Clunes team, UBC-professor og tidligere forsker ved OpenAI, gitt en geeky løsning.
Siden vi ikke vet hvilken minnestruktur som er best, la Agenten skrive sin egen Python-kode for å designe den.
Dette er den nylig utgitte ALMA (Automated meta-Learning of Memory designs for Agentic systems).
Fra ADAS til ALMA: Kodebasert automatisert design
ALMA er en fortsettelse av den AI-genererte algoritmiske teknologiretningen som teamet nylig har fremmet.

I ADAS (Automated Design of Agentic Systems) beviste teamet at kode er et mer effektivt søkerom enn nevrale nettverksvekter eller Soft Prompts når man designer Agent-arkitektur. Kode har Turing-kompletthet og ekstremt høy forklarbarhet.

Senere, i DGM (Darwin Gödel Machine), introduserte teamet konseptet åpen utforskning fra evolusjonære algoritmer, opprettholdt et designarkiv og oppmuntret modellen til å utforske nye løsninger.

ALMA arver ADAS's kodegenereringsparadigme og DGMs evolusjonære strategi, og fokuserer applikasjonsscenariet på komponenten i Agent-systemet som er mest avhengig av menneskelig erfaring – minne.
ALMAs arbeidsmekanisme
ALMAs driftsmekanisme er en standard meta-læringssløyfe. Meta Agent håndterer ikke lenger oppgaver direkte, men er ansvarlig for programmering. Prosessen består av fire faser:
- Idé: Analyser det nåværende minnedesignarkivet og formuler forbedringsplaner basert på tidligere ytelse
- Planlegging: Oversett ideer til pseudokodelogikk
- Implementering: Skriv kjørbar Python-kode og definer kjernefunksjoner
- Evaluering: Distribuer den genererte koden til et sandkassemiljø for å utføre oppgaver og gi tilbakemelding om ytelsesindikatorer

I løpet av evolusjonen vil ALMA generere et stort designtre. Etter hvert som antall iterasjoner øker, utvikler den genererte minnekoden seg gradvis fra enkel lagringslogikk til komplekse kognitive arkitekturer.

Utviklede minnestrukturer
ALMA-genererte minnedesign viste stor variasjon i forskjellige oppgaver:
- MiniHack (Dungeon Exploration): Designet en Risk and Interaction-modul som eksplisitt registrerer operasjoner som fører til blodtap og monstrets aggressivitet
- Baba Is AI (Logic Puzzle): Designet et Strategy Library som registrerer kombinasjonen av regler som kreves for å fullføre nivåer

Dette indikerer at AI er i stand til å identifisere oppgaveegenskaper: overlevelsesspill krever oppmerksomhet på risiko, og puslespill krever oppmerksomhet på regelabstraksjon.
Eksperimentelle resultater
ALMA ble sammenlignet med vanlige basislinjer i fire miljøer: TextWorld, ALFWorld, MiniHack og Baba Is AI.
På GPT-5-mini-modellen nådde ALMAs gjennomsnittlige suksessrate 53,9 %, som er bedre enn G-Memory (46,0 %) og Trajectory Retrieval (48,6 %).

Når det gjelder kostnadseffektivitet, bruker ALMA i gjennomsnitt bare 1 319 tokens, mens Trajectory Retrieval bruker så mye som 9 149 tokens, og G-Memory når også 6 055 tokens. ALMA oppnådde bedre ytelse til en kostnad på bare omtrent 1/7 til 1/5.

Konklusjon
ALMA viser en mulighet for en overgang fra Software 2.0 (Neural Networks) til Software 3.0 (AI-Generating Algorithms).
I Agent-utvikling har utformingen av minnemoduler lenge vært avhengig av ingeniørens intuisjon. ALMA har bevist at gjennom meta-læring og kodegenerering kan AI automatisk oppdage den optimale minnearkitekturen basert på det spesifikke miljøet.
Ressurslenker
- Artikkel: https://arxiv.org/pdf/2602.07755
- Kode: https://github.com/zksha/alma
- Prosjekthjemmeside: https://yimingxiong.me/alma





