Nessuna regolazione dei parametri, solo scrittura di codice! La nuova opera del team di Jeff Clune: Meta Agent evolve automaticamente i moduli di memoria

2/14/2026
4 min read

Nessuna regolazione dei parametri, solo scrittura di codice! La nuova opera del team di Jeff Clune: Meta Agent evolve automaticamente i moduli di memoria

Verso Software 3.0, l'IA inizia a scrivere codice Python da sola per evolvere il cervello.

ALMA

Nelle profondità dello sviluppo di Agent, la memoria (Memory) è sempre un punto dolente inevitabile.

Nonostante le capacità dei modelli di base siano sempre più potenti, nel processo di inferenza sono essenzialmente apolidi (Stateless), il che limita la capacità dell'Agent di accumulare continuamente esperienza.

Attualmente, le soluzioni principali del settore per la gestione della memoria, sia RAG che il riepilogo della finestra scorrevole, rimangono essenzialmente nella fase di regole euristiche progettate manualmente.

Questo tipo di modulo di memoria creato manualmente è estremamente fragile e difficile da trasferire. Il Prompt e la logica di recupero finemente ottimizzati per i sistemi di dialogo spesso falliscono direttamente quando vengono inseriti in attività di pianificazione a lungo termine (come ALFWorld) o giochi di strategia complessi.

Architettura ALMA

Per risolvere questo problema, il team di Jeff Clune, professore all'UBC ed ex ricercatore di OpenAI, ha fornito una soluzione da geek.

Visto che non si sa quale sia la migliore struttura di memoria, lasciamo che l'Agent scriva da solo codice Python per progettarla.

Questo è il nuovo ALMA (Automated meta-Learning of Memory designs for Agentic systems) appena rilasciato.

Da ADAS ad ALMA: Progettazione automatizzata basata sul codice

ALMA è una continuazione del percorso tecnologico dell'algoritmo di generazione AI promosso di recente dal team.

ADAS

In ADAS (Automated Design of Agentic Systems), il team ha dimostrato che, nella progettazione dell'architettura dell'Agent, il codice è uno spazio di ricerca più efficiente rispetto ai pesi della rete neurale o ai Soft Prompts. Il codice ha la completezza di Turing e ha una forte interpretabilità.

Meta Agent

Successivamente, in DGM (Darwin Gödel Machine), il team ha introdotto il concetto di esplorazione aperta nell'algoritmo evolutivo, mantenendo un archivio di progettazione per incoraggiare il modello a esplorare nuove soluzioni.

DGM

ALMA eredita il paradigma di generazione di codice di ADAS e la strategia evolutiva di DGM, concentrando gli scenari applicativi sui componenti più dipendenti dall'esperienza umana nel sistema Agent: la memoria.

Il meccanismo di funzionamento di ALMA

Il meccanismo di funzionamento di ALMA è un ciclo chiuso di meta-apprendimento standard. Il Meta Agent non gestisce più direttamente le attività, ma è responsabile della programmazione. Il processo comprende quattro fasi:

  • Ideazione: analizzare l'archivio di progettazione della memoria corrente, basandosi sulle prestazioni storiche per ideare soluzioni di miglioramento
  • Pianificazione: trasformare l'ideazione in logica di pseudocodice
  • Implementazione: scrivere codice Python eseguibile, definire le funzioni principali
  • Valutazione: distribuire il codice generato in un ambiente sandbox per eseguire attività e fornire metriche di performance

Flusso di lavoro

Nel processo di evoluzione, ALMA genererà un enorme albero di progettazione. Con l'aumentare dei passaggi di iterazione, il codice di memoria generato si evolve gradualmente dalla semplice logica di archiviazione a un'architettura cognitiva complessa.

Albero evolutivo

Struttura di memoria evoluta

Il design della memoria generato da ALMA ha mostrato enormi differenze in diverse attività:

  • MiniHack (esplorazione di dungeon): ha progettato il modulo Risk and Interaction, registrando esplicitamente le operazioni che causano la perdita di sangue e l'aggressività dei mostri
  • Baba Is AI (puzzle logici): ha progettato la Strategy Library, registrando le combinazioni di regole necessarie per superare i livelli

Struttura di memoria

Ciò indica che l'IA è in grado di identificare le caratteristiche dell'attività: i giochi di sopravvivenza devono prestare attenzione al rischio, i giochi di puzzle devono prestare attenzione all'astrazione delle regole.

Risultati sperimentali

ALMA è stato confrontato con le principali baseline in quattro ambienti: TextWorld, ALFWorld, MiniHack, Baba Is AI.

Sul modello GPT-5-mini, il tasso di successo medio di ALMA ha raggiunto il 53,9%, superiore a G-Memory (46,0%) e Trajectory Retrieval (48,6%).

Risultati sperimentali

In termini di efficienza dei costi, ALMA consuma in media solo 1.319 token, mentre Trajectory Retrieval consuma fino a 9.149 token e G-Memory raggiunge anche 6.055 token. ALMA ottiene prestazioni migliori con una spesa di circa 1/7 a 1/5.

Efficienza dei costi

Conclusione

ALMA mostra una possibilità di transizione da Software 2.0 (Reti Neurali) a Software 3.0 (Algoritmi di generazione AI).

Nello sviluppo di Agent, la progettazione dei moduli di memoria si è a lungo basata sull'intuizione degli ingegneri. ALMA ha dimostrato che, attraverso il meta-apprendimento e la generazione di codice, l'IA può scoprire automaticamente l'architettura di memoria ottimale in base all'ambiente specifico.

Link alle risorse

Published in Technology

You Might Also Like