Nessuna regolazione dei parametri, solo scrittura di codice! La nuova opera del team di Jeff Clune: Meta Agent evolve automaticamente i moduli di memoria
Nessuna regolazione dei parametri, solo scrittura di codice! La nuova opera del team di Jeff Clune: Meta Agent evolve automaticamente i moduli di memoria
Verso Software 3.0, l'IA inizia a scrivere codice Python da sola per evolvere il cervello.

Nelle profondità dello sviluppo di Agent, la memoria (Memory) è sempre un punto dolente inevitabile.
Nonostante le capacità dei modelli di base siano sempre più potenti, nel processo di inferenza sono essenzialmente apolidi (Stateless), il che limita la capacità dell'Agent di accumulare continuamente esperienza.
Attualmente, le soluzioni principali del settore per la gestione della memoria, sia RAG che il riepilogo della finestra scorrevole, rimangono essenzialmente nella fase di regole euristiche progettate manualmente.
Questo tipo di modulo di memoria creato manualmente è estremamente fragile e difficile da trasferire. Il Prompt e la logica di recupero finemente ottimizzati per i sistemi di dialogo spesso falliscono direttamente quando vengono inseriti in attività di pianificazione a lungo termine (come ALFWorld) o giochi di strategia complessi.

Per risolvere questo problema, il team di Jeff Clune, professore all'UBC ed ex ricercatore di OpenAI, ha fornito una soluzione da geek.
Visto che non si sa quale sia la migliore struttura di memoria, lasciamo che l'Agent scriva da solo codice Python per progettarla.
Questo è il nuovo ALMA (Automated meta-Learning of Memory designs for Agentic systems) appena rilasciato.
Da ADAS ad ALMA: Progettazione automatizzata basata sul codice
ALMA è una continuazione del percorso tecnologico dell'algoritmo di generazione AI promosso di recente dal team.

In ADAS (Automated Design of Agentic Systems), il team ha dimostrato che, nella progettazione dell'architettura dell'Agent, il codice è uno spazio di ricerca più efficiente rispetto ai pesi della rete neurale o ai Soft Prompts. Il codice ha la completezza di Turing e ha una forte interpretabilità.

Successivamente, in DGM (Darwin Gödel Machine), il team ha introdotto il concetto di esplorazione aperta nell'algoritmo evolutivo, mantenendo un archivio di progettazione per incoraggiare il modello a esplorare nuove soluzioni.

ALMA eredita il paradigma di generazione di codice di ADAS e la strategia evolutiva di DGM, concentrando gli scenari applicativi sui componenti più dipendenti dall'esperienza umana nel sistema Agent: la memoria.
Il meccanismo di funzionamento di ALMA
Il meccanismo di funzionamento di ALMA è un ciclo chiuso di meta-apprendimento standard. Il Meta Agent non gestisce più direttamente le attività, ma è responsabile della programmazione. Il processo comprende quattro fasi:
- Ideazione: analizzare l'archivio di progettazione della memoria corrente, basandosi sulle prestazioni storiche per ideare soluzioni di miglioramento
- Pianificazione: trasformare l'ideazione in logica di pseudocodice
- Implementazione: scrivere codice Python eseguibile, definire le funzioni principali
- Valutazione: distribuire il codice generato in un ambiente sandbox per eseguire attività e fornire metriche di performance

Nel processo di evoluzione, ALMA genererà un enorme albero di progettazione. Con l'aumentare dei passaggi di iterazione, il codice di memoria generato si evolve gradualmente dalla semplice logica di archiviazione a un'architettura cognitiva complessa.

Struttura di memoria evoluta
Il design della memoria generato da ALMA ha mostrato enormi differenze in diverse attività:
- MiniHack (esplorazione di dungeon): ha progettato il modulo Risk and Interaction, registrando esplicitamente le operazioni che causano la perdita di sangue e l'aggressività dei mostri
- Baba Is AI (puzzle logici): ha progettato la Strategy Library, registrando le combinazioni di regole necessarie per superare i livelli

Ciò indica che l'IA è in grado di identificare le caratteristiche dell'attività: i giochi di sopravvivenza devono prestare attenzione al rischio, i giochi di puzzle devono prestare attenzione all'astrazione delle regole.
Risultati sperimentali
ALMA è stato confrontato con le principali baseline in quattro ambienti: TextWorld, ALFWorld, MiniHack, Baba Is AI.
Sul modello GPT-5-mini, il tasso di successo medio di ALMA ha raggiunto il 53,9%, superiore a G-Memory (46,0%) e Trajectory Retrieval (48,6%).

In termini di efficienza dei costi, ALMA consuma in media solo 1.319 token, mentre Trajectory Retrieval consuma fino a 9.149 token e G-Memory raggiunge anche 6.055 token. ALMA ottiene prestazioni migliori con una spesa di circa 1/7 a 1/5.

Conclusione
ALMA mostra una possibilità di transizione da Software 2.0 (Reti Neurali) a Software 3.0 (Algoritmi di generazione AI).
Nello sviluppo di Agent, la progettazione dei moduli di memoria si è a lungo basata sull'intuizione degli ingegneri. ALMA ha dimostrato che, attraverso il meta-apprendimento e la generazione di codice, l'IA può scoprire automaticamente l'architettura di memoria ottimale in base all'ambiente specifico.
Link alle risorse
- Articolo: https://arxiv.org/pdf/2602.07755
- Codice: https://github.com/zksha/alma
- Pagina principale del progetto: https://yimingxiong.me/alma





