Kein Parameter-Tuning, nur Code schreiben! Neues Werk des Jeff Clune Teams: Meta Agent entwickelt automatisch Speichermodule
Kein Parameter-Tuning, nur Code schreiben! Neues Werk des Jeff Clune Teams: Meta Agent entwickelt automatisch Speichermodule
Auf dem Weg zu Software 3.0 beginnt die KI, ihren eigenen Python-Code zu schreiben, um ihr Gehirn weiterzuentwickeln.

Im tiefen Wasser der Agentenentwicklung ist das Gedächtnis (Memory) immer ein unvermeidlicher Schmerzpunkt.
Obwohl die Fähigkeiten der Basismodelle immer stärker werden, sind sie im Wesentlichen zustandslos (Stateless) während des Inferenzprozesses, was die Fähigkeit des Agenten einschränkt, kontinuierlich Erfahrungen zu sammeln.
Die derzeitigen Mainstream-Lösungen der Branche zur Verarbeitung von Gedächtnis, ob RAG oder gleitende Fensterzusammenfassungen, verbleiben im Wesentlichen auf der Ebene der von Menschen entworfenen heuristischen Regeln.
Dieses manuell erstellte Gedächtnismodul ist äußerst fragil und schwer zu übertragen. Sorgfältig auf Dialogsysteme abgestimmte Prompts und Suchlogiken versagen oft direkt, wenn sie in Langzeitplanungsaufgaben (wie ALFWorld) oder komplexen Strategiespielen eingesetzt werden.

Um dieser Notlage zu begegnen, hat das Team um UBC-Professor und ehemaligen OpenAI-Forscher Jeff Clune eine geekige Lösung gefunden.
Da wir nicht wissen, welche Gedächtnisstruktur am besten ist, lassen wir den Agenten seinen eigenen Python-Code schreiben, um sie zu entwerfen.
Das ist das gerade veröffentlichte ALMA (Automated meta-Learning of Memory designs for Agentic systems).
Von ADAS zu ALMA: Automatisierter Entwurf auf Codebasis
ALMA ist die Fortsetzung des vom Team in letzter Zeit befürworteten technischen Wegs der KI-generierten Algorithmen.

In ADAS (Automated Design of Agentic Systems) bewies das Team, dass Code ein effizienterer Suchraum ist als neuronale Netzwerk-Gewichte oder Soft Prompts, wenn es um den Entwurf von Agentenarchitekturen geht. Code ist Turing-vollständig und verfügt über eine extrem hohe Interpretierbarkeit.

Anschließend führte das Team in DGM (Darwin Gödel Machine) das Konzept der offenen Exploration aus evolutionären Algorithmen ein, pflegte ein Designarchiv und ermutigte das Modell, neuartige Lösungen zu erkunden.

ALMA erbt das Code-Generierungsparadigma von ADAS und die Evolutionsstrategie von DGM und konzentriert die Anwendungsszenarien auf die Komponente von Agentensystemen, die am stärksten auf menschliche Erfahrung angewiesen ist – das Gedächtnis.
Der Arbeitsmechanismus von ALMA
Der Funktionsmechanismus von ALMA ist eine Standardschleife für Meta-Learning. Der Meta-Agent verarbeitet nicht mehr direkt Aufgaben, sondern ist für die Programmierung verantwortlich. Der Prozess umfasst vier Phasen:
- Konzeption: Analyse des aktuellen Gedächtnisdesignarchivs und Konzeption von Verbesserungen auf der Grundlage der historischen Leistung
- Planung: Umwandlung der Konzeption in Pseudocode-Logik
- Implementierung: Schreiben von ausführbarem Python-Code, Definition von Kernfunktionen
- Bewertung: Bereitstellung des generierten Codes in einer Sandbox-Umgebung zur Ausführung von Aufgaben, Rückmeldung von Leistungsindikatoren

Während des Evolutionsprozesses generiert ALMA einen riesigen Designbaum. Mit zunehmender Anzahl von Iterationen entwickelt sich der generierte Gedächtniscode allmählich von einer einfachen Speicherlogik zu einer komplexen kognitiven Architektur.

Die entwickelten Gedächtnisstrukturen
Die von ALMA generierten Gedächtnisdesigns zeigten in verschiedenen Aufgaben große Unterschiede:
- MiniHack (Dungeon Exploration): Entwarf ein Risk and Interaction-Modul, das explizit die Operationen, die zu Blutverlust führen, und die Aggressivität von Monstern aufzeichnet
- Baba Is AI (Logikrätsel): Entwarf eine Strategy Library, die die für das Bestehen des Levels erforderlichen Regelkombinationen aufzeichnet

Dies zeigt, dass die KI in der Lage ist, Aufgabenmerkmale zu erkennen: Survival-Spiele müssen sich auf Risiken konzentrieren, während sich Rätselspiele auf die Abstraktion von Regeln konzentrieren müssen.
Experimentelle Ergebnisse
ALMA wurde in den vier Umgebungen TextWorld, ALFWorld, MiniHack und Baba Is AI mit Mainstream-Baselines verglichen.
Auf dem GPT-5-mini-Modell erreichte ALMA eine durchschnittliche Erfolgsrate von 53,9 %, was besser ist als G-Memory (46,0 %) und Trajectory Retrieval (48,6 %).

In Bezug auf die Kosteneffizienz verbraucht ALMA durchschnittlich nur 1.319 Tokens, während Trajectory Retrieval bis zu 9.149 Tokens verbraucht und G-Memory ebenfalls 6.055 Tokens erreicht. ALMA tauschte eine bessere Leistung gegen nur etwa 1/7 bis 1/5 der Kosten ein.

Fazit
ALMA zeigt eine Möglichkeit des Übergangs von Software 2.0 (Neuronale Netze) zu Software 3.0 (KI-generierende Algorithmen).
Bei der Agentenentwicklung war der Entwurf von Gedächtnismodulen lange Zeit auf die Intuition von Ingenieuren angewiesen. ALMA hat bewiesen, dass KI durch Meta-Learning und Codegenerierung in der Lage ist, automatisch die optimale Gedächtnisarchitektur entsprechend der jeweiligen Umgebung zu finden.
Ressourcenlinks
- Paper: https://arxiv.org/pdf/2602.07755
- Code: https://github.com/zksha/alma
- Projekt-Homepage: https://yimingxiong.me/alma





