Kein Parameter-Tuning, nur Code schreiben! Neues Werk des Jeff Clune Teams: Meta Agent entwickelt automatisch Speichermodule

2/14/2026
4 min read

Kein Parameter-Tuning, nur Code schreiben! Neues Werk des Jeff Clune Teams: Meta Agent entwickelt automatisch Speichermodule

Auf dem Weg zu Software 3.0 beginnt die KI, ihren eigenen Python-Code zu schreiben, um ihr Gehirn weiterzuentwickeln.

ALMA

Im tiefen Wasser der Agentenentwicklung ist das Gedächtnis (Memory) immer ein unvermeidlicher Schmerzpunkt.

Obwohl die Fähigkeiten der Basismodelle immer stärker werden, sind sie im Wesentlichen zustandslos (Stateless) während des Inferenzprozesses, was die Fähigkeit des Agenten einschränkt, kontinuierlich Erfahrungen zu sammeln.

Die derzeitigen Mainstream-Lösungen der Branche zur Verarbeitung von Gedächtnis, ob RAG oder gleitende Fensterzusammenfassungen, verbleiben im Wesentlichen auf der Ebene der von Menschen entworfenen heuristischen Regeln.

Dieses manuell erstellte Gedächtnismodul ist äußerst fragil und schwer zu übertragen. Sorgfältig auf Dialogsysteme abgestimmte Prompts und Suchlogiken versagen oft direkt, wenn sie in Langzeitplanungsaufgaben (wie ALFWorld) oder komplexen Strategiespielen eingesetzt werden.

ALMA架构

Um dieser Notlage zu begegnen, hat das Team um UBC-Professor und ehemaligen OpenAI-Forscher Jeff Clune eine geekige Lösung gefunden.

Da wir nicht wissen, welche Gedächtnisstruktur am besten ist, lassen wir den Agenten seinen eigenen Python-Code schreiben, um sie zu entwerfen.

Das ist das gerade veröffentlichte ALMA (Automated meta-Learning of Memory designs for Agentic systems).

Von ADAS zu ALMA: Automatisierter Entwurf auf Codebasis

ALMA ist die Fortsetzung des vom Team in letzter Zeit befürworteten technischen Wegs der KI-generierten Algorithmen.

ADAS

In ADAS (Automated Design of Agentic Systems) bewies das Team, dass Code ein effizienterer Suchraum ist als neuronale Netzwerk-Gewichte oder Soft Prompts, wenn es um den Entwurf von Agentenarchitekturen geht. Code ist Turing-vollständig und verfügt über eine extrem hohe Interpretierbarkeit.

Meta Agent

Anschließend führte das Team in DGM (Darwin Gödel Machine) das Konzept der offenen Exploration aus evolutionären Algorithmen ein, pflegte ein Designarchiv und ermutigte das Modell, neuartige Lösungen zu erkunden.

DGM

ALMA erbt das Code-Generierungsparadigma von ADAS und die Evolutionsstrategie von DGM und konzentriert die Anwendungsszenarien auf die Komponente von Agentensystemen, die am stärksten auf menschliche Erfahrung angewiesen ist – das Gedächtnis.

Der Arbeitsmechanismus von ALMA

Der Funktionsmechanismus von ALMA ist eine Standardschleife für Meta-Learning. Der Meta-Agent verarbeitet nicht mehr direkt Aufgaben, sondern ist für die Programmierung verantwortlich. Der Prozess umfasst vier Phasen:

  • Konzeption: Analyse des aktuellen Gedächtnisdesignarchivs und Konzeption von Verbesserungen auf der Grundlage der historischen Leistung
  • Planung: Umwandlung der Konzeption in Pseudocode-Logik
  • Implementierung: Schreiben von ausführbarem Python-Code, Definition von Kernfunktionen
  • Bewertung: Bereitstellung des generierten Codes in einer Sandbox-Umgebung zur Ausführung von Aufgaben, Rückmeldung von Leistungsindikatoren

工作流程

Während des Evolutionsprozesses generiert ALMA einen riesigen Designbaum. Mit zunehmender Anzahl von Iterationen entwickelt sich der generierte Gedächtniscode allmählich von einer einfachen Speicherlogik zu einer komplexen kognitiven Architektur.

进化树

Die entwickelten Gedächtnisstrukturen

Die von ALMA generierten Gedächtnisdesigns zeigten in verschiedenen Aufgaben große Unterschiede:

  • MiniHack (Dungeon Exploration): Entwarf ein Risk and Interaction-Modul, das explizit die Operationen, die zu Blutverlust führen, und die Aggressivität von Monstern aufzeichnet
  • Baba Is AI (Logikrätsel): Entwarf eine Strategy Library, die die für das Bestehen des Levels erforderlichen Regelkombinationen aufzeichnet

记忆结构

Dies zeigt, dass die KI in der Lage ist, Aufgabenmerkmale zu erkennen: Survival-Spiele müssen sich auf Risiken konzentrieren, während sich Rätselspiele auf die Abstraktion von Regeln konzentrieren müssen.

Experimentelle Ergebnisse

ALMA wurde in den vier Umgebungen TextWorld, ALFWorld, MiniHack und Baba Is AI mit Mainstream-Baselines verglichen.

Auf dem GPT-5-mini-Modell erreichte ALMA eine durchschnittliche Erfolgsrate von 53,9 %, was besser ist als G-Memory (46,0 %) und Trajectory Retrieval (48,6 %).

实验结果

In Bezug auf die Kosteneffizienz verbraucht ALMA durchschnittlich nur 1.319 Tokens, während Trajectory Retrieval bis zu 9.149 Tokens verbraucht und G-Memory ebenfalls 6.055 Tokens erreicht. ALMA tauschte eine bessere Leistung gegen nur etwa 1/7 bis 1/5 der Kosten ein.

成本效率

Fazit

ALMA zeigt eine Möglichkeit des Übergangs von Software 2.0 (Neuronale Netze) zu Software 3.0 (KI-generierende Algorithmen).

Bei der Agentenentwicklung war der Entwurf von Gedächtnismodulen lange Zeit auf die Intuition von Ingenieuren angewiesen. ALMA hat bewiesen, dass KI durch Meta-Learning und Codegenerierung in der Lage ist, automatisch die optimale Gedächtnisarchitektur entsprechend der jeweiligen Umgebung zu finden.

Ressourcenlinks

Published in Technology

You Might Also Like