Tidak Perlu Tuning Parameter, Cukup Tulis Kode! Karya Terbaru Tim Jeff Clune: Meta Agent Secara Otomatis Mengembangkan Modul Memori
Tidak Perlu Tuning Parameter, Cukup Tulis Kode! Karya Terbaru Tim Jeff Clune: Meta Agent Secara Otomatis Mengembangkan Modul Memori
Menuju Software 3.0, AI mulai menulis kode Python sendiri untuk mengembangkan otaknya.

Di area yang sulit dalam pengembangan Agent, memori (Memory) selalu menjadi titik sakit yang tak terhindarkan.
Walaupun kemampuan model dasar semakin kuat, namun pada dasarnya tidak memiliki status (Stateless) dalam proses inferensi, yang membatasi kemampuan Agent untuk terus mengakumulasi pengalaman.
Solusi utama industri saat ini untuk menangani memori, baik itu RAG maupun ringkasan jendela geser, pada dasarnya masih berada pada tahap aturan heuristik yang dirancang secara manual.
Modul memori yang dibuat secara manual ini sangat rapuh dan sulit dipindahkan. Prompt dan logika pencarian yang dioptimalkan dengan cermat untuk sistem dialog, seringkali langsung gagal ketika ditempatkan pada tugas perencanaan jangka panjang (seperti ALFWorld) atau permainan strategi yang kompleks.

Untuk mengatasi kesulitan ini, tim Jeff Clune, seorang profesor di UBC dan mantan peneliti di OpenAI, memberikan solusi ala geek.
Karena tidak tahu struktur memori seperti apa yang terbaik, biarkan Agent menulis kode Python sendiri untuk mendesainnya.
Inilah yang baru saja dirilis ALMA (Automated meta-Learning of Memory designs for Agentic systems).
Dari ADAS ke ALMA: Desain Otomatis Berbasis Kode
ALMA adalah kelanjutan dari jalur teknis algoritma yang dihasilkan AI yang dipromosikan oleh tim ini baru-baru ini.

Dalam ADAS (Automated Design of Agentic Systems), tim membuktikan bahwa dalam mendesain arsitektur Agent, kode adalah ruang pencarian yang lebih efisien daripada bobot jaringan saraf atau Soft Prompts. Kode memiliki kelengkapan Turing dan memiliki kemampuan interpretasi yang sangat kuat.

Kemudian dalam DGM (Darwin Gödel Machine), tim memperkenalkan konsep eksplorasi terbuka dalam algoritma evolusi, memelihara arsip desain, dan mendorong model untuk mengeksplorasi solusi baru.

ALMA mewarisi paradigma pembuatan kode ADAS dan strategi evolusi DGM, dan memfokuskan skenario aplikasi pada komponen yang paling bergantung pada pengalaman manusia dalam sistem Agent—memori.
Mekanisme Kerja ALMA
Mekanisme operasi ALMA adalah loop tertutup meta-pembelajaran standar. Meta Agent tidak lagi langsung menangani tugas, tetapi bertanggung jawab untuk pemrograman. Prosesnya mencakup empat tahap:
- Konsep: Menganalisis arsip desain memori saat ini, dan membuat konsep solusi perbaikan berdasarkan kinerja historis
- Perencanaan: Mengubah konsep menjadi logika pseudocode
- Implementasi: Menulis kode Python yang dapat dieksekusi, mendefinisikan fungsi inti
- Evaluasi: Menyebarkan kode yang dihasilkan ke lingkungan sandbox untuk menjalankan tugas, dan memberikan umpan balik metrik kinerja

Dalam proses evolusi, ALMA akan menghasilkan pohon desain yang besar. Seiring dengan bertambahnya jumlah iterasi, kode memori yang dihasilkan secara bertahap berevolusi dari logika penyimpanan sederhana menjadi arsitektur kognitif yang kompleks.

Struktur Memori yang Dikembangkan
Desain memori yang dihasilkan ALMA menunjukkan perbedaan yang besar dalam tugas yang berbeda:
- MiniHack (Petualangan Bawah Tanah): Merancang modul Risiko dan Interaksi, secara eksplisit mencatat operasi yang menyebabkan kehilangan darah dan agresivitas monster
- Baba Is AI (Teka-teki Logika): Merancang Pustaka Strategi, mencatat kombinasi aturan yang diperlukan untuk melewati level

Ini menunjukkan bahwa AI dapat mengidentifikasi karakteristik tugas: game survival perlu memperhatikan risiko, game teka-teki perlu memperhatikan abstraksi aturan.
Hasil Eksperimen
ALMA dibandingkan dengan baseline utama di empat lingkungan: TextWorld, ALFWorld, MiniHack, dan Baba Is AI.
Pada model GPT-5-mini, tingkat keberhasilan rata-rata ALMA mencapai 53.9%, lebih baik daripada G-Memory (46.0%) dan Trajectory Retrieval (48.6%).

Dalam hal efisiensi biaya, ALMA rata-rata hanya menghabiskan 1,319 tokens, sedangkan Trajectory Retrieval menghabiskan hingga 9,149 tokens, dan G-Memory juga mencapai 6,055 tokens. ALMA memperoleh kinerja yang lebih baik dengan biaya hanya sekitar 1/7 hingga 1/5.

Kesimpulan
ALMA menunjukkan kemungkinan transisi dari Software 2.0 (Neural Networks) ke Software 3.0 (AI-Generating Algorithms).
Dalam pengembangan Agent, desain modul memori telah lama bergantung pada intuisi insinyur. ALMA membuktikan bahwa melalui meta-pembelajaran dan pembuatan kode, AI dapat secara otomatis menemukan arsitektur memori yang optimal berdasarkan lingkungan tertentu.
Tautan Sumber Daya
- Makalah: https://arxiv.org/pdf/2602.07755
- Kode: https://github.com/zksha/alma
- Halaman Utama Proyek: https://yimingxiong.me/alma





