Tidak Perlu Tala Parameter, Hanya Tulis Kod! Karya Baharu Pasukan Jeff Clune: Meta Agent Mengembangkan Modul Memori Secara Automatik
Tidak Perlu Tala Parameter, Hanya Tulis Kod! Karya Baharu Pasukan Jeff Clune: Meta Agent Mengembangkan Modul Memori Secara Automatik
Menuju ke Software 3.0, AI mula menulis kod Python sendiri untuk mengembangkan otak.

Dalam zon mendalam pembangunan Agent, memori (Memory) sentiasa menjadi titik kesakitan yang tidak dapat dielakkan.
Walaupun keupayaan model asas semakin kuat, tetapi pada dasarnya tidak berkeadaan (Stateless) dalam proses penaakulan, yang mengehadkan keupayaan Agent untuk terus mengumpul pengalaman.
Pada masa ini, penyelesaian arus perdana industri untuk memproses memori, sama ada RAG atau ringkasan tetingkap gelongsor, pada dasarnya masih berada di peringkat peraturan heuristik yang direka secara manual.
Modul memori yang direka secara manual ini sangat rapuh dan sukar untuk dipindahkan. Prompt dan logik carian yang ditala dengan teliti untuk sistem dialog sering kali gagal secara langsung apabila diletakkan dalam tugas perancangan jangka panjang (seperti ALFWorld) atau permainan strategi yang kompleks.

Menangani dilema ini, pasukan Profesor UBC dan bekas penyelidik OpenAI, Jeff Clune, memberikan penyelesaian gaya geek.
Oleh kerana tidak diketahui struktur memori yang terbaik, biarkan Agent menulis kod Python sendiri untuk mereka bentuknya.
Inilah yang baru dikeluarkan ALMA (Automated meta-Learning of Memory designs for Agentic systems).
Dari ADAS ke ALMA: Reka Bentuk Automatik Berasaskan Kod
ALMA ialah kesinambungan laluan teknikal algoritma penjanaan AI yang dipromosikan oleh pasukan baru-baru ini.

Dalam ADAS (Automated Design of Agentic Systems), pasukan membuktikan bahawa dalam mereka bentuk seni bina Agent, kod adalah ruang carian yang lebih cekap daripada pemberat rangkaian saraf atau Soft Prompt. Kod mempunyai kelengkapan Turing dan kebolehjelasan yang sangat kuat.

Kemudian dalam DGM (Darwin Gödel Machine), pasukan memperkenalkan konsep penerokaan terbuka dalam algoritma evolusi, mengekalkan arkib reka bentuk dan menggalakkan model untuk meneroka penyelesaian baharu.

ALMA mewarisi paradigma penjanaan kod ADAS dan strategi evolusi DGM, memfokuskan senario aplikasi pada komponen sistem Agent yang paling bergantung pada pengalaman manual - memori.
Mekanisme Kerja ALMA
Mekanisme operasi ALMA ialah gelung tertutup meta-pembelajaran standard. Meta Agent tidak lagi memproses tugas secara langsung, tetapi bertanggungjawab untuk pengaturcaraan. Proses ini merangkumi empat peringkat:
- Konsep: Menganalisis arkib reka bentuk memori semasa dan membuat konsep pelan penambahbaikan berdasarkan prestasi sejarah
- Perancangan: Menukar konsep kepada logik pseudo-kod
- Pelaksanaan: Menulis kod Python yang boleh dilaksanakan dan mentakrifkan fungsi teras
- Penilaian: Menggunakan kod yang dijana untuk melaksanakan tugas dalam persekitaran kotak pasir dan memberikan maklum balas tentang metrik prestasi

Dalam proses evolusi, ALMA akan menjana pokok reka bentuk yang besar. Apabila bilangan lelaran meningkat, kod memori yang dijana secara beransur-ansur berkembang daripada logik storan yang mudah kepada seni bina kognitif yang kompleks.

Struktur Memori yang Berkembang
Reka bentuk memori yang dijana oleh ALMA menunjukkan perbezaan yang besar dalam tugas yang berbeza:
- MiniHack (Penerokaan Penjara): Mereka bentuk modul Risiko dan Interaksi, merekodkan secara jelas operasi yang menyebabkan kehilangan darah dan agresif raksasa
- Baba Is AI (Teka-teki Logik): Mereka bentuk Perpustakaan Strategi, merekodkan kombinasi peraturan yang diperlukan untuk melepasi tahap

Ini menunjukkan bahawa AI dapat mengenal pasti ciri tugas: permainan survival perlu memberi perhatian kepada risiko, dan permainan teka-teki perlu memberi perhatian kepada abstraksi peraturan.
Keputusan Eksperimen
ALMA dibandingkan dengan garis dasar arus perdana dalam empat persekitaran: TextWorld, ALFWorld, MiniHack dan Baba Is AI.
Pada model GPT-5-mini, kadar kejayaan purata ALMA mencapai 53.9%, yang lebih baik daripada G-Memory (46.0%) dan Trajectory Retrieval (48.6%).

Dari segi kecekapan kos, ALMA secara purata hanya menggunakan 1,319 tokens, manakala Trajectory Retrieval menggunakan sehingga 9,149 tokens, dan G-Memory juga mencapai 6,055 tokens. ALMA mencapai prestasi yang lebih baik dengan hanya kira-kira 1/7 hingga 1/5 daripada kos.

Kesimpulan
ALMA menunjukkan kemungkinan peralihan daripada Software 2.0 (Neural Networks) kepada Software 3.0 (AI-Generating Algorithms).
Dalam pembangunan Agent, reka bentuk modul memori telah lama bergantung pada intuisi jurutera. ALMA membuktikan bahawa melalui meta-pembelajaran dan penjanaan kod, AI boleh menemui seni bina memori yang optimum secara automatik berdasarkan persekitaran tertentu.
Pautan Sumber
- Kertas kerja: https://arxiv.org/pdf/2602.07755
- Kod: https://github.com/zksha/alma
- Laman utama projek: https://yimingxiong.me/alma





