Geen parameters afstellen, alleen code schrijven! Nieuw werk van het Jeff Clune-team: Meta Agent evolueert automatisch geheugenmodules
Geen parameters afstellen, alleen code schrijven! Nieuw werk van het Jeff Clune-team: Meta Agent evolueert automatisch geheugenmodules
Op weg naar Software 3.0 begint AI zelf Python-code te schrijven om de hersenen te evolueren.

In de diepe wateren van Agent-ontwikkeling is geheugen (Memory) altijd een pijnlijk punt dat niet kan worden vermeden.
Hoewel de mogelijkheden van basismodellen steeds krachtiger worden, zijn ze in wezen staatloos (Stateless) tijdens het redeneerproces, wat het vermogen van de Agent om continu ervaring op te doen, beperkt.
De huidige mainstream oplossingen in de industrie voor het verwerken van geheugen, of het nu RAG of een schuifraamoverzicht is, bevinden zich in wezen nog steeds in het stadium van heuristische regels die handmatig zijn ontworpen.
Deze handmatig gemaakte geheugenmodules zijn uiterst fragiel en moeilijk te migreren. Prompts en ophaallogica die zorgvuldig zijn afgestemd op dialoogsystemen, zullen vaak direct falen wanneer ze worden geplaatst in lange termijn planningstaken (zoals ALFWorld) of complexe strategiespellen.

Om deze moeilijkheid aan te pakken, heeft het team van UBC-professor en voormalig OpenAI-onderzoeker Jeff Clune een geeky oplossing bedacht.
Aangezien we niet weten wat de beste geheugenstructuur is, laten we de Agent zelf Python-code schrijven om deze te ontwerpen.
Dit is de zojuist uitgebrachte ALMA (Automated meta-Learning of Memory designs for Agentic systems).
Van ADAS tot ALMA: geautomatiseerd ontwerp op basis van code
ALMA is een voortzetting van de AI-generatie algoritme-technologieroute die het team onlangs heeft gepromoot.

In ADAS (Automated Design of Agentic Systems) bewees het team dat code een efficiëntere zoekruimte is dan neurale netwerkgewichten of Soft Prompts bij het ontwerpen van Agent-architecturen. Code heeft Turing-volledigheid en een extreem hoge mate van interpreteerbaarheid.

Later, in DGM (Darwin Gödel Machine), introduceerde het team het concept van open exploratie in evolutionaire algoritmen, waarbij een ontwerparchief werd bijgehouden om modellen aan te moedigen nieuwe oplossingen te verkennen.

ALMA erft het ADAS-code generatie paradigma en de DGM-evolutiestrategie, en richt de toepassingsscenario's op de component in Agent-systemen die het meest afhankelijk is van menselijke ervaring - geheugen.
Het werkingsmechanisme van ALMA
Het werkingsmechanisme van ALMA is een standaard meta-leerlus. De Meta Agent verwerkt niet langer rechtstreeks taken, maar is verantwoordelijk voor het programmeren. Het proces omvat vier fasen:
- Conceptualisatie: Analyseer het huidige geheugenontwerp archief en conceptualiseer verbeteringen op basis van historische prestaties
- Planning: Zet de conceptualisatie om in pseudocode logica
- Implementatie: Schrijf uitvoerbare Python-code en definieer kernfuncties
- Evaluatie: Implementeer de gegenereerde code in een sandbox-omgeving om taken uit te voeren en feedback te geven over prestatie-indicatoren

Tijdens het evolutieproces genereert ALMA een enorme ontwerpboom. Naarmate het aantal iteraties toeneemt, evolueert de gegenereerde geheugencode geleidelijk van eenvoudige opslaglogica naar complexe cognitieve architecturen.

Geëvolueerde geheugenstructuur
De geheugenontwerpen die door ALMA zijn gegenereerd, vertonen grote verschillen in verschillende taken:
- MiniHack (kerkerverkenning): Ontwierp een Risk and Interaction-module, die expliciet de operaties registreert die bloedverlies veroorzaken en de agressiviteit van monsters
- Baba Is AI (logische puzzel): Ontwierp een Strategy Library, die de regelcombinaties registreert die nodig zijn om levels te voltooien

Dit geeft aan dat AI taakeigenschappen kan identificeren: survival games moeten zich richten op risico's, puzzelspellen moeten zich richten op regelabstractie.
Experimentele resultaten
ALMA werd vergeleken met de belangrijkste basislijnen in de vier omgevingen TextWorld, ALFWorld, MiniHack en Baba Is AI.
Op het GPT-5-mini-model bereikte het gemiddelde succespercentage van ALMA 53,9%, wat beter is dan G-Memory (46,0%) en Trajectory Retrieval (48,6%).

In termen van kostenefficiëntie verbruikt ALMA gemiddeld slechts 1.319 tokens, terwijl Trajectory Retrieval maar liefst 9.149 tokens verbruikt en G-Memory ook 6.055 tokens bereikt. ALMA ruilde betere prestaties in voor slechts ongeveer 1/7 tot 1/5 van de kosten.

Conclusie
ALMA toont een mogelijkheid van een overgang van Software 2.0 (Neural Networks) naar Software 3.0 (AI-Generating Algorithms).
Bij Agent-ontwikkeling is het ontwerp van geheugenmodules lange tijd afhankelijk geweest van de intuïtie van ingenieurs. ALMA heeft bewezen dat AI, door middel van meta-leren en codegeneratie, automatisch de optimale geheugenarchitectuur kan ontdekken op basis van de specifieke omgeving.
Bronnenlinks
- Paper: https://arxiv.org/pdf/2602.07755
- Code: https://github.com/zksha/alma
- Projectpagina: https://yimingxiong.me/alma





