Ingen parameterjustering, bara kod! Jeff Clunes teams nya verk: Meta Agent automatiskt utvecklande minnesmodul

2/14/2026
4 min read

Ingen parameterjustering, bara kod! Jeff Clunes teams nya verk: Meta Agent automatiskt utvecklande minnesmodul

På väg mot Software 3.0, börjar AI skriva sin egen Python-kod för att utveckla hjärnan.

ALMA

I Agent-utvecklingens djupa vatten är minne (Memory) alltid en smärtpunkt som inte kan undvikas.

Trots att grundmodellernas förmåga blir allt starkare, är de i grunden tillståndslösa (Stateless) under inferensprocessen, vilket begränsar Agentens förmåga att kontinuerligt ackumulera erfarenhet.

De nuvarande vanliga lösningarna för att hantera minne i branschen, oavsett om det är RAG eller glidande fönster-sammanfattning, förblir i huvudsak på stadiet av heuristiska regler designade av människor.

Denna typ av manuellt skapade minnesmodul är extremt bräcklig och svår att migrera. Prompt- och hämtningslogiken som är noggrant finjusterad för dialogsystem, kommer ofta att misslyckas direkt när den placeras i långsiktiga planeringsuppgifter (som ALFWorld) eller komplexa strategispel.

ALMA架构

För att lösa detta dilemma har Jeff Clunes team, professor vid UBC och tidigare forskare vid OpenAI, gett en nördig lösning.

Eftersom vi inte vet vilken typ av minnesstruktur som är bäst, låt Agenten skriva Python-kod själv för att designa den.

Detta är den nyligen släppta ALMA (Automated meta-Learning of Memory designs for Agentic systems).

Från ADAS till ALMA: Automatiserad design baserad på kod

ALMA är en fortsättning på den AI-genererande algoritmteknikväg som teamet nyligen har förespråkat.

ADAS

I ADAS (Automated Design of Agentic Systems) bevisade teamet att kod är ett mer effektivt sökområde än neurala nätverksvikter eller Soft Prompts när man designar Agent-arkitektur. Kod har Turing-fullständighet och har extremt hög förklaringsbarhet.

Meta Agent

Senare, i DGM (Darwin Gödel Machine), introducerade teamet konceptet öppen utforskning från evolutionära algoritmer, upprätthöll ett designarkiv och uppmuntrade modellen att utforska nya lösningar.

DGM

ALMA ärver ADAS:s kodgenereringsparadigm och DGMs evolutionsstrategi och fokuserar applikationsscenariot på den komponent i Agent-systemet som är mest beroende av mänsklig erfarenhet – minne.

ALMAs arbetsmekanism

ALMAs driftsmekanism är en standard meta-inlärningsslinga. Meta Agent hanterar inte längre uppgifter direkt, utan ansvarar för programmering. Processen innehåller fyra steg:

  • Konceptualisering: Analysera det aktuella minnesdesignarkivet och konceptualisera förbättringsplaner baserat på historisk prestanda
  • Planering: Omvandla koncept till pseudokodlogik
  • Implementering: Skriv körbar Python-kod och definiera kärnfunktioner
  • Utvärdering: Distribuera den genererade koden till en sandlådemiljö för att utföra uppgifter och ge feedback om prestandamått

工作流程

Under evolutionsprocessen kommer ALMA att generera ett stort designträd. När antalet iterationer ökar, utvecklas den genererade minneskoden gradvis från enkel lagringslogik till komplex kognitiv arkitektur.

进化树

Utvecklade minnesstrukturer

ALMA:s genererade minnesdesign uppvisade stora skillnader i olika uppgifter:

  • MiniHack (Dungeon Adventure): Designade Risk and Interaction-modulen, som explicit registrerar operationer som leder till blodförlust och monstrens aggressivitet
  • Baba Is AI (Logic Puzzle): Designade Strategy Library, som registrerar kombinationer av regler som krävs för att klara nivåer

记忆结构

Detta indikerar att AI kan identifiera uppgiftsegenskaper: överlevnadsspel måste fokusera på risker, pusselspel måste fokusera på regelabstraktion.

Experimentella resultat

ALMA jämfördes med vanliga baslinjer i fyra miljöer: TextWorld, ALFWorld, MiniHack och Baba Is AI.

På GPT-5-mini-modellen nådde ALMA en genomsnittlig framgångsfrekvens på 53,9 %, vilket är bättre än G-Memory (46,0 %) och Trajectory Retrieval (48,6 %).

实验结果

När det gäller kostnadseffektivitet förbrukar ALMA i genomsnitt endast 1 319 tokens, medan Trajectory Retrieval förbrukar så mycket som 9 149 tokens, och G-Memory når också 6 055 tokens. ALMA uppnår bättre prestanda till en kostnad av endast cirka 1/7 till 1/5.

成本效率

Slutsats

ALMA visar en möjlighet till en övergång från Software 2.0 (Neural Networks) till Software 3.0 (AI-Generating Algorithms).

Vid Agent-utveckling har designen av minnesmoduler länge varit beroende av ingenjörers intuition. ALMA har bevisat att genom meta-inlärning och kodgenerering kan AI automatiskt upptäcka den optimala minnesarkitekturen baserat på den specifika miljön.

Resurslänkar

Published in Technology

You Might Also Like