Tidak Perlu Tuning Parameter, Cukup Tulis Kode! Karya Terbaru Tim Jeff Clune: Meta Agent Secara Otomatis Mengembangkan Modul Memori

2/14/2026
4 min read

Tidak Perlu Tuning Parameter, Cukup Tulis Kode! Karya Terbaru Tim Jeff Clune: Meta Agent Secara Otomatis Mengembangkan Modul Memori

Menuju Software 3.0, AI mulai menulis kode Python sendiri untuk mengembangkan otaknya.

ALMA

Di area yang sulit dalam pengembangan Agent, memori (Memory) selalu menjadi titik sakit yang tak terhindarkan.

Walaupun kemampuan model dasar semakin kuat, namun pada dasarnya tidak memiliki status (Stateless) dalam proses inferensi, yang membatasi kemampuan Agent untuk terus mengakumulasi pengalaman.

Solusi utama industri saat ini untuk menangani memori, baik itu RAG maupun ringkasan jendela geser, pada dasarnya masih berada pada tahap aturan heuristik yang dirancang secara manual.

Modul memori yang dibuat secara manual ini sangat rapuh dan sulit dipindahkan. Prompt dan logika pencarian yang dioptimalkan dengan cermat untuk sistem dialog, seringkali langsung gagal ketika ditempatkan pada tugas perencanaan jangka panjang (seperti ALFWorld) atau permainan strategi yang kompleks.

Arsitektur ALMA

Untuk mengatasi kesulitan ini, tim Jeff Clune, seorang profesor di UBC dan mantan peneliti di OpenAI, memberikan solusi ala geek.

Karena tidak tahu struktur memori seperti apa yang terbaik, biarkan Agent menulis kode Python sendiri untuk mendesainnya.

Inilah yang baru saja dirilis ALMA (Automated meta-Learning of Memory designs for Agentic systems).

Dari ADAS ke ALMA: Desain Otomatis Berbasis Kode

ALMA adalah kelanjutan dari jalur teknis algoritma yang dihasilkan AI yang dipromosikan oleh tim ini baru-baru ini.

ADAS

Dalam ADAS (Automated Design of Agentic Systems), tim membuktikan bahwa dalam mendesain arsitektur Agent, kode adalah ruang pencarian yang lebih efisien daripada bobot jaringan saraf atau Soft Prompts. Kode memiliki kelengkapan Turing dan memiliki kemampuan interpretasi yang sangat kuat.

Meta Agent

Kemudian dalam DGM (Darwin Gödel Machine), tim memperkenalkan konsep eksplorasi terbuka dalam algoritma evolusi, memelihara arsip desain, dan mendorong model untuk mengeksplorasi solusi baru.

DGM

ALMA mewarisi paradigma pembuatan kode ADAS dan strategi evolusi DGM, dan memfokuskan skenario aplikasi pada komponen yang paling bergantung pada pengalaman manusia dalam sistem Agent—memori.

Mekanisme Kerja ALMA

Mekanisme operasi ALMA adalah loop tertutup meta-pembelajaran standar. Meta Agent tidak lagi langsung menangani tugas, tetapi bertanggung jawab untuk pemrograman. Prosesnya mencakup empat tahap:

  • Konsep: Menganalisis arsip desain memori saat ini, dan membuat konsep solusi perbaikan berdasarkan kinerja historis
  • Perencanaan: Mengubah konsep menjadi logika pseudocode
  • Implementasi: Menulis kode Python yang dapat dieksekusi, mendefinisikan fungsi inti
  • Evaluasi: Menyebarkan kode yang dihasilkan ke lingkungan sandbox untuk menjalankan tugas, dan memberikan umpan balik metrik kinerja

Alur Kerja

Dalam proses evolusi, ALMA akan menghasilkan pohon desain yang besar. Seiring dengan bertambahnya jumlah iterasi, kode memori yang dihasilkan secara bertahap berevolusi dari logika penyimpanan sederhana menjadi arsitektur kognitif yang kompleks.

Pohon Evolusi

Struktur Memori yang Dikembangkan

Desain memori yang dihasilkan ALMA menunjukkan perbedaan yang besar dalam tugas yang berbeda:

  • MiniHack (Petualangan Bawah Tanah): Merancang modul Risiko dan Interaksi, secara eksplisit mencatat operasi yang menyebabkan kehilangan darah dan agresivitas monster
  • Baba Is AI (Teka-teki Logika): Merancang Pustaka Strategi, mencatat kombinasi aturan yang diperlukan untuk melewati level

Struktur Memori

Ini menunjukkan bahwa AI dapat mengidentifikasi karakteristik tugas: game survival perlu memperhatikan risiko, game teka-teki perlu memperhatikan abstraksi aturan.

Hasil Eksperimen

ALMA dibandingkan dengan baseline utama di empat lingkungan: TextWorld, ALFWorld, MiniHack, dan Baba Is AI.

Pada model GPT-5-mini, tingkat keberhasilan rata-rata ALMA mencapai 53.9%, lebih baik daripada G-Memory (46.0%) dan Trajectory Retrieval (48.6%).

Hasil Eksperimen

Dalam hal efisiensi biaya, ALMA rata-rata hanya menghabiskan 1,319 tokens, sedangkan Trajectory Retrieval menghabiskan hingga 9,149 tokens, dan G-Memory juga mencapai 6,055 tokens. ALMA memperoleh kinerja yang lebih baik dengan biaya hanya sekitar 1/7 hingga 1/5.

Efisiensi Biaya

Kesimpulan

ALMA menunjukkan kemungkinan transisi dari Software 2.0 (Neural Networks) ke Software 3.0 (AI-Generating Algorithms).

Dalam pengembangan Agent, desain modul memori telah lama bergantung pada intuisi insinyur. ALMA membuktikan bahwa melalui meta-pembelajaran dan pembuatan kode, AI dapat secara otomatis menemukan arsitektur memori yang optimal berdasarkan lingkungan tertentu.

Tautan Sumber Daya

Published in Technology

You Might Also Like