Ingen finjustering, bare skriv kode! Jeff Clunes teams nye værk: Meta Agent automatisk udvikler hukommelsesmoduler
Ingen finjustering, bare skriv kode! Jeff Clunes teams nye værk: Meta Agent automatisk udvikler hukommelsesmoduler
På vej mod Software 3.0 begynder AI at skrive sin egen Python-kode for at udvikle hjernen.

I de dybe farvande af Agent-udvikling er hukommelse (Memory) altid et smertepunkt, der ikke kan undgås.
Selvom grundlæggende modellers evner bliver stadig stærkere, er de i bund og grund statsløse (Stateless) under inferensprocessen, hvilket begrænser Agentens evne til løbende at akkumulere erfaring.
De nuværende mainstream-løsninger i branchen til håndtering af hukommelse, uanset om det er RAG eller glidende vinduesresuméer, forbliver i det væsentlige på stadiet af heuristiske regler designet af mennesker.
Dette manuelt fremstillede hukommelsesmodul er ekstremt skrøbeligt og vanskeligt at overføre. De prompter og hentningslogikker, der er omhyggeligt finjusteret til dialogsystemer, vil ofte fejle direkte, når de placeres i langsigtede planlægningsopgaver (såsom ALFWorld) eller komplekse strategispil.

For at løse dette dilemma har Jeff Clunes team, professor ved UBC og tidligere forsker hos OpenAI, givet en geek-agtig løsning.
Da vi ikke ved, hvilken hukommelsesstruktur der er bedst, lad Agenten selv skrive Python-kode til at designe den.
Dette er den netop udgivne ALMA (Automated meta-Learning of Memory designs for Agentic systems).
Fra ADAS til ALMA: Automatiseret design baseret på kode
ALMA er en fortsættelse af den AI-genereringsalgoritmetekniske rute, som teamet for nylig har fremmet.

I ADAS (Automated Design of Agentic Systems) beviste teamet, at kode er et mere effektivt søgerum end neurale netværksvægte eller Soft Prompts, når man designer Agent-arkitektur. Kode har Turing-fuldstændighed og ekstremt stærk fortolkelighed.

Senere, i DGM (Darwin Gödel Machine), introducerede teamet konceptet om åben udforskning i evolutionære algoritmer, vedligeholdt et designarkiv og opmuntrede modellen til at udforske nye løsninger.

ALMA arver ADAS's kodegenereringsparadigme og DGMs evolutionsstrategi og fokuserer applikationsscenariet på den komponent i Agent-systemet, der er mest afhængig af menneskelig erfaring - hukommelse.
ALMAs arbejdsprincip
ALMAs driftsmekanisme er en standard meta-lærings lukket sløjfe. Meta Agent håndterer ikke længere opgaver direkte, men er ansvarlig for programmering. Processen omfatter fire faser:
- Idéudvikling: Analyser det aktuelle hukommelsesdesignarkiv, og udvikl forbedringsforslag baseret på historisk ydeevne
- Planlægning: Konverter idéer til pseudokodelogik
- Implementering: Skriv eksekverbar Python-kode, definer kernefunktioner
- Evaluering: Implementer den genererede kode i et sandkassemiljø for at udføre opgaver og give feedback om præstationsindikatorer

I evolutionsprocessen vil ALMA generere et stort designtræ. Efterhånden som antallet af iterationstrin stiger, udvikler den genererede hukommelseskode sig gradvist fra simpel lagringslogik til komplekse kognitive arkitekturer.

Udviklede hukommelsesstrukturer
ALMA-genererede hukommelsesdesign har vist stor variation i forskellige opgaver:
- MiniHack (dungeon exploration): Designet Risk and Interaction-modulet, der eksplicit registrerer de handlinger, der fører til blodtab, og monstrets aggressivitet
- Baba Is AI (logisk puslespil): Designet Strategy Library, der registrerer de regelkombinationer, der kræves for at klare niveauer

Dette indikerer, at AI er i stand til at identificere opgaveegenskaber: overlevelsesspil skal fokusere på risici, og puslespil skal fokusere på regelabstraktion.
Eksperimentelle resultater
ALMA blev sammenlignet med mainstream-baselines i fire miljøer: TextWorld, ALFWorld, MiniHack og Baba Is AI.
På GPT-5-mini-modellen nåede ALMAs gennemsnitlige succesrate 53,9 %, hvilket er bedre end G-Memory (46,0 %) og Trajectory Retrieval (48,6 %).

Med hensyn til omkostningseffektivitet bruger ALMA i gennemsnit kun 1.319 tokens, mens Trajectory Retrieval bruger så mange som 9.149 tokens, og G-Memory når også 6.055 tokens. ALMA opnår bedre ydeevne til kun omkring 1/7 til 1/5 af omkostningerne.

Konklusion
ALMA viser en mulighed for en overgang fra Software 2.0 (Neural Networks) til Software 3.0 (AI-Generating Algorithms).
I Agent-udvikling har designet af hukommelsesmoduler længe været afhængig af ingeniørers intuition. ALMA har bevist, at AI gennem meta-læring og kodegenerering automatisk kan finde den optimale hukommelsesarkitektur i henhold til det specifikke miljø.
Ressourcelinks
- Artikel: https://arxiv.org/pdf/2602.07755
- Kode: https://github.com/zksha/alma
- Projekthjemmeside: https://yimingxiong.me/alma





