Tidak Perlu Tala Parameter, Hanya Tulis Kod! Karya Baharu Pasukan Jeff Clune: Meta Agent Mengembangkan Modul Memori Secara Automatik

2/14/2026
4 min read

Tidak Perlu Tala Parameter, Hanya Tulis Kod! Karya Baharu Pasukan Jeff Clune: Meta Agent Mengembangkan Modul Memori Secara Automatik

Menuju ke Software 3.0, AI mula menulis kod Python sendiri untuk mengembangkan otak.

ALMA

Dalam zon mendalam pembangunan Agent, memori (Memory) sentiasa menjadi titik kesakitan yang tidak dapat dielakkan.

Walaupun keupayaan model asas semakin kuat, tetapi pada dasarnya tidak berkeadaan (Stateless) dalam proses penaakulan, yang mengehadkan keupayaan Agent untuk terus mengumpul pengalaman.

Pada masa ini, penyelesaian arus perdana industri untuk memproses memori, sama ada RAG atau ringkasan tetingkap gelongsor, pada dasarnya masih berada di peringkat peraturan heuristik yang direka secara manual.

Modul memori yang direka secara manual ini sangat rapuh dan sukar untuk dipindahkan. Prompt dan logik carian yang ditala dengan teliti untuk sistem dialog sering kali gagal secara langsung apabila diletakkan dalam tugas perancangan jangka panjang (seperti ALFWorld) atau permainan strategi yang kompleks.

ALMA架构

Menangani dilema ini, pasukan Profesor UBC dan bekas penyelidik OpenAI, Jeff Clune, memberikan penyelesaian gaya geek.

Oleh kerana tidak diketahui struktur memori yang terbaik, biarkan Agent menulis kod Python sendiri untuk mereka bentuknya.

Inilah yang baru dikeluarkan ALMA (Automated meta-Learning of Memory designs for Agentic systems).

Dari ADAS ke ALMA: Reka Bentuk Automatik Berasaskan Kod

ALMA ialah kesinambungan laluan teknikal algoritma penjanaan AI yang dipromosikan oleh pasukan baru-baru ini.

ADAS

Dalam ADAS (Automated Design of Agentic Systems), pasukan membuktikan bahawa dalam mereka bentuk seni bina Agent, kod adalah ruang carian yang lebih cekap daripada pemberat rangkaian saraf atau Soft Prompt. Kod mempunyai kelengkapan Turing dan kebolehjelasan yang sangat kuat.

Meta Agent

Kemudian dalam DGM (Darwin Gödel Machine), pasukan memperkenalkan konsep penerokaan terbuka dalam algoritma evolusi, mengekalkan arkib reka bentuk dan menggalakkan model untuk meneroka penyelesaian baharu.

DGM

ALMA mewarisi paradigma penjanaan kod ADAS dan strategi evolusi DGM, memfokuskan senario aplikasi pada komponen sistem Agent yang paling bergantung pada pengalaman manual - memori.

Mekanisme Kerja ALMA

Mekanisme operasi ALMA ialah gelung tertutup meta-pembelajaran standard. Meta Agent tidak lagi memproses tugas secara langsung, tetapi bertanggungjawab untuk pengaturcaraan. Proses ini merangkumi empat peringkat:

  • Konsep: Menganalisis arkib reka bentuk memori semasa dan membuat konsep pelan penambahbaikan berdasarkan prestasi sejarah
  • Perancangan: Menukar konsep kepada logik pseudo-kod
  • Pelaksanaan: Menulis kod Python yang boleh dilaksanakan dan mentakrifkan fungsi teras
  • Penilaian: Menggunakan kod yang dijana untuk melaksanakan tugas dalam persekitaran kotak pasir dan memberikan maklum balas tentang metrik prestasi

工作流程

Dalam proses evolusi, ALMA akan menjana pokok reka bentuk yang besar. Apabila bilangan lelaran meningkat, kod memori yang dijana secara beransur-ansur berkembang daripada logik storan yang mudah kepada seni bina kognitif yang kompleks.

进化树

Struktur Memori yang Berkembang

Reka bentuk memori yang dijana oleh ALMA menunjukkan perbezaan yang besar dalam tugas yang berbeza:

  • MiniHack (Penerokaan Penjara): Mereka bentuk modul Risiko dan Interaksi, merekodkan secara jelas operasi yang menyebabkan kehilangan darah dan agresif raksasa
  • Baba Is AI (Teka-teki Logik): Mereka bentuk Perpustakaan Strategi, merekodkan kombinasi peraturan yang diperlukan untuk melepasi tahap

记忆结构

Ini menunjukkan bahawa AI dapat mengenal pasti ciri tugas: permainan survival perlu memberi perhatian kepada risiko, dan permainan teka-teki perlu memberi perhatian kepada abstraksi peraturan.

Keputusan Eksperimen

ALMA dibandingkan dengan garis dasar arus perdana dalam empat persekitaran: TextWorld, ALFWorld, MiniHack dan Baba Is AI.

Pada model GPT-5-mini, kadar kejayaan purata ALMA mencapai 53.9%, yang lebih baik daripada G-Memory (46.0%) dan Trajectory Retrieval (48.6%).

实验结果

Dari segi kecekapan kos, ALMA secara purata hanya menggunakan 1,319 tokens, manakala Trajectory Retrieval menggunakan sehingga 9,149 tokens, dan G-Memory juga mencapai 6,055 tokens. ALMA mencapai prestasi yang lebih baik dengan hanya kira-kira 1/7 hingga 1/5 daripada kos.

成本效率

Kesimpulan

ALMA menunjukkan kemungkinan peralihan daripada Software 2.0 (Neural Networks) kepada Software 3.0 (AI-Generating Algorithms).

Dalam pembangunan Agent, reka bentuk modul memori telah lama bergantung pada intuisi jurutera. ALMA membuktikan bahawa melalui meta-pembelajaran dan penjanaan kod, AI boleh menemui seni bina memori yang optimum secara automatik berdasarkan persekitaran tertentu.

Pautan Sumber

Published in Technology

You Might Also Like