Hindi nag-aayos ng parameter, sumusulat lang ng code! Bagong gawa ng team ni Jeff Clune: Awtomatikong ebolusyon ng memory module ng Meta Agent
2/14/2026
4 min read
Hindi nag-aayos ng parameter, sumusulat lang ng code! Bagong gawa ng team ni Jeff Clune: Awtomatikong ebolusyon ng memory module ng Meta Agent\n\nPatungo sa Software 3.0, nagsisimula nang magsulat ang AI ng Python code para ebolusyonin ang utak nito.\n\n
\n\nSa malalim na bahagi ng pagbuo ng Agent, ang memorya (Memory) ay palaging isang hindi maiiwasang problema.\n\nBagama't ang kakayahan ng mga pangunahing modelo ay lalong lumalakas, sa proseso ng pagrarason, ito ay walang estado (Stateless), na naglilimita sa kakayahan ng Agent na patuloy na mag-ipon ng karanasan.\n\nSa kasalukuyan, ang pangunahing solusyon sa industriya para sa pagproseso ng memorya, maging ito ay RAG o sliding window summary, ay mahalagang nananatili pa rin sa heuristic rule stage na dinisenyo ng tao.\n\nAng memory module na ito na ginawa nang mano-mano ay lubhang marupok at mahirap ilipat. Ang Prompt at retrieval logic na maingat na inayos para sa mga sistema ng pag-uusap ay madalas na direktang nabibigo kapag inilagay sa mga long-range planning task (tulad ng ALFWorld) o kumplikadong mga laro ng diskarte.\n\n
\n\nBilang tugon sa problemang ito, ang team ni Jeff Clune, isang propesor sa UBC at dating researcher sa OpenAI, ay nagbigay ng isang geek-style na solusyon.\n\nKung hindi alam kung anong uri ng memory structure ang pinakamahusay, hayaan ang Agent na magsulat ng Python code upang idisenyo ito.\n\nIto ang bagong inilabas na ALMA (Automated meta-Learning of Memory designs for Agentic systems).\n\n## Mula ADAS hanggang ALMA: Awtomatikong disenyo batay sa code\n\nAng ALMA ay isang pagpapatuloy ng teknikal na ruta ng AI generation algorithm na kamakailan lamang ay itinaguyod ng team.\n\n
\n\nSa ADAS (Automated Design of Agentic Systems), pinatunayan ng team na sa pagdidisenyo ng arkitektura ng Agent, ang code ay mas mahusay na search space kaysa sa mga neural network weight o Soft Prompts. Ang code ay Turing complete at may napakalakas na interpretability.\n\n
\n\nPagkatapos, sa DGM (Darwin Gödel Machine), ipinakilala ng team ang konsepto ng open-ended exploration sa evolutionary algorithm, nagpapanatili ng isang design archive, at hinihikayat ang modelo na tuklasin ang mga bagong solusyon.\n\n
\n\nMinana ng ALMA ang code generation paradigm ng ADAS at ang evolutionary strategy ng DGM, na nagtutok sa application scenario sa memorya, ang component ng Agent system na pinaka umaasa sa karanasan ng tao.\n\n## Ang mekanismo ng pagtatrabaho ng ALMA\n\nAng mekanismo ng pagpapatakbo ng ALMA ay isang karaniwang meta-learning closed loop. Hindi na direktang pinoproseso ng Meta Agent ang mga gawain, ngunit responsable sa pagprograma. Kasama sa proseso ang apat na yugto:\n\n- Pag-iisip: Pag-aralan ang kasalukuyang memory design archive, at mag-isip ng mga solusyon sa pagpapabuti batay sa nakaraang pagganap\n- Pagpaplano: Gawing pseudo-code logic ang mga ideya\n- Pagpapatupad: Sumulat ng executable Python code, tukuyin ang mga pangunahing function\n- Pagtatasa: I-deploy ang nabuong code sa isang sandbox environment upang isagawa ang mga gawain at magbigay ng feedback sa mga sukatan ng pagganap\n\n
\n\nSa proseso ng ebolusyon, bubuo ang ALMA ng isang malaking puno ng disenyo. Habang tumataas ang bilang ng mga iteration step, ang nabuong memory code ay unti-unting nagiging isang kumplikadong cognitive architecture mula sa simpleng logic ng storage.\n\n
\n\n## Ang istraktura ng memorya na nabuo\n\nAng mga disenyo ng memorya na nabuo ng ALMA ay nagpakita ng malaking pagkakaiba sa iba't ibang mga gawain:\n\n- MiniHack (paggalugad sa piitan): Nagdisenyo ng Risk and Interaction module, na tahasang nagtatala ng mga operasyon na nagdudulot ng pagkawala ng dugo at ang pagiging agresibo ng mga halimaw\n- Baba Is AI (logic puzzle): Nagdisenyo ng Strategy Library, na nagtatala ng mga kumbinasyon ng panuntunan na kinakailangan upang makapasa sa antas\n\n
\n\Ipinapakita nito na nakikilala ng AI ang mga katangian ng gawain: ang mga survival game ay kailangang magbayad ng pansin sa panganib, at ang mga puzzle game ay kailangang magbayad ng pansin sa abstract na panuntunan.\n\n## Mga resulta ng eksperimento\n\nInihambing ang ALMA sa mga pangunahing baseline sa apat na kapaligiran: TextWorld, ALFWorld, MiniHack, at Baba Is AI.\n\nSa modelo ng GPT-5-mini, ang average na rate ng tagumpay ng ALMA ay umabot sa 53.9%, na mas mahusay kaysa sa G-Memory (46.0%) at Trajectory Retrieval (48.6%).\n\n
\n\nSa mga tuntunin ng cost efficiency, ang ALMA ay gumagamit lamang ng average na 1,319 tokens, habang ang Trajectory Retrieval ay gumagamit ng hanggang 9,149 tokens, at ang G-Memory ay umabot din sa 6,055 tokens. Ang ALMA ay nakakuha ng mas mahusay na pagganap sa halaga ng humigit-kumulang 1/7 hanggang 1/5.\n\n
\n\n## Konklusyon\n\nIpinapakita ng ALMA ang isang posibilidad ng paglipat mula sa Software 2.0 (Neural Networks) patungo sa Software 3.0 (AI-Generating Algorithms).\n\nSa pagbuo ng Agent, ang disenyo ng memory module ay matagal nang nakadepende sa intuwisyon ng mga inhinyero. Pinatunayan ng ALMA na sa pamamagitan ng meta-learning at code generation, awtomatikong matutuklasan ng AI ang pinakamainam na arkitektura ng memorya batay sa partikular na kapaligiran.\n\n## Mga link ng mapagkukunan\n\n- Thesis: https://arxiv.org/pdf/2602.07755\n- Code: https://github.com/zksha/alma\n- Homepage ng proyekto: https://yimingxiong.me/alma
Published in Technology





