არ არის საჭირო პარამეტრების დარეგულირება, უბრალოდ დაწერეთ კოდი! ჯეფ კლაინის გუნდის ახალი ნამუშევარი: Meta Agent ავტომატურად ავითარებს მეხსიერების მოდულს
არ არის საჭირო პარამეტრების დარეგულირება, უბრალოდ დაწერეთ კოდი! ჯეფ კლაინის გუნდის ახალი ნამუშევარი: Meta Agent ავტომატურად ავითარებს მეხსიერების მოდულს
გზა Software 3.0-ისკენ, AI იწყებს ტვინის ევოლუციისთვის Python კოდის წერას.

Agent-ის განვითარების სიღრმეში, მეხსიერება (Memory) ყოველთვის გადაულახავი პრობლემაა.
მიუხედავად იმისა, რომ ძირითადი მოდელების შესაძლებლობები დღითიდღე ძლიერდება, მსჯელობის პროცესში ისინი არსებითად უმდგომარეონი არიან (Stateless), რაც ზღუდავს Agent-ის მიერ გამოცდილების მუდმივად დაგროვების შესაძლებლობას.
ამჟამად ინდუსტრიაში მეხსიერების დამუშავების ძირითადი სქემები, იქნება ეს RAG თუ მოძრავი ფანჯრის შეჯამება, არსებითად რჩება ხელით შექმნილი ევრისტიკული წესების ეტაპზე.
ეს ხელით შექმნილი მეხსიერების მოდული უკიდურესად მყიფე და რთული გადასატანია. დიალოგური სისტემებისთვის ზედმიწევნით დარეგულირებული Prompt და მოძიების ლოგიკა, როგორც წესი, პირდაპირ იშლება გრძელვადიანი დაგეგმვის ამოცანებში (როგორიცაა ALFWorld) ან რთულ სტრატეგიულ თამაშებში.

ამ პრობლემის გადასაჭრელად, UBC-ის პროფესორმა და OpenAI-ს ყოფილმა მკვლევარმა ჯეფ კლაინის გუნდმა წარმოადგინა გიკური გადაწყვეტა.
რადგან არ ვიცით, რა ტიპის მეხსიერების სტრუქტურაა საუკეთესო, მოდით, Agent-მა თავად დაწეროს Python კოდი მის შესაქმნელად.
ეს არის ახლახან გამოქვეყნებული ALMA (Automated meta-Learning of Memory designs for Agentic systems).
ADAS-დან ALMA-მდე: კოდზე დაფუძნებული ავტომატური დიზაინი
ALMA არის გუნდის მიერ ახლახან დაწინაურებული AI-ის მიერ გენერირებული ალგორითმების ტექნიკური მარშრუტის გაგრძელება.

ADAS-ში (Automated Design of Agentic Systems) გუნდმა დაამტკიცა, რომ Agent-ის არქიტექტურის დიზაინის დროს, კოდი უფრო ეფექტური საძიებო სივრცეა, ვიდრე ნერვული ქსელის წონა ან Soft Prompts. კოდს აქვს ტიურინგის სისრულე და უკიდურესად ახსნადია.

მოგვიანებით, DGM-ში (Darwin Gödel Machine) გუნდმა შემოიტანა ევოლუციური ალგორითმების ღია კვლევის კონცეფცია, შეინარჩუნა დიზაინის არქივი და წაახალისა მოდელი ახალი გადაწყვეტილებების შესასწავლად.

ALMA-მ მემკვიდრეობით მიიღო ADAS-ის კოდის გენერირების პარადიგმა და DGM-ის ევოლუციური სტრატეგია და ფოკუსირება მოახდინა Agent სისტემებში ყველაზე მეტად ადამიანის გამოცდილებაზე დამოკიდებულ კომპონენტზე - მეხსიერებაზე.
ALMA-ს მუშაობის მექანიზმი
ALMA-ს მუშაობის მექანიზმი არის სტანდარტული მეტა-სწავლის დახურული ციკლი. Meta Agent აღარ ამუშავებს დავალებებს პირდაპირ, არამედ პასუხისმგებელია პროგრამირებაზე. პროცესი მოიცავს ოთხ ეტაპს:
- იდეების გენერირება: აანალიზებს მეხსიერების ამჟამინდელ დიზაინის არქივს და ისტორიული მაჩვენებლების საფუძველზე ქმნის გაუმჯობესების გეგმებს
- დაგეგმვა: იდეებს გარდაქმნის ფსევდოკოდის ლოგიკად
- განხორციელება: წერს შესასრულებელ Python კოდს და განსაზღვრავს ძირითად ფუნქციებს
- შეფასება: წარმოქმნილ კოდს ანაწილებს სენდბოქსის გარემოში დავალებების შესასრულებლად და აბრუნებს შესრულების ინდიკატორებს

ევოლუციის პროცესში ALMA წარმოქმნის უზარმაზარ დიზაინის ხეს. გამეორებების რაოდენობის ზრდასთან ერთად, გენერირებული მეხსიერების კოდი თანდათანობით ვითარდება მარტივი შენახვის ლოგიკიდან რთულ შემეცნებით არქიტექტურად.

ევოლუციური მეხსიერების სტრუქტურა
ALMA-ს მიერ გენერირებულმა მეხსიერების დიზაინმა სხვადასხვა დავალებაში აჩვენა უზარმაზარი განსხვავებები:
- MiniHack (Dungeon Exploration): შექმნა Risk and Interaction მოდული, რომელიც აშკარად აღრიცხავს სისხლის დაკარგვის გამომწვევ ოპერაციებს და მონსტრების აგრესიულობას
- Baba Is AI (ლოგიკური თავსატეხი): შექმნა Strategy Library, რომელიც აღრიცხავს დონის გასავლელად საჭირო წესების კომბინაციებს

ეს მიუთითებს იმაზე, რომ AI-ს შეუძლია ამოიცნოს დავალების მახასიათებლები: გადარჩენის თამაშებმა უნდა გაამახვილონ ყურადღება რისკზე, ხოლო თავსატეხმა თამაშებმა უნდა გაამახვილონ ყურადღება წესების აბსტრაქციაზე.
ექსპერიმენტის შედეგები
ALMA შეადარეს ძირითად საბაზისო მაჩვენებლებს ოთხ გარემოში: TextWorld, ALFWorld, MiniHack, Baba Is AI.
GPT-5-mini მოდელზე ALMA-ს საშუალო წარმატების მაჩვენებელმა მიაღწია 53.9%-ს, რაც აღემატება G-Memory-ს (46.0%) და Trajectory Retrieval-ს (48.6%).

ხარჯების ეფექტურობის თვალსაზრისით, ALMA საშუალოდ მოიხმარს მხოლოდ 1,319 ტოკენს, ხოლო Trajectory Retrieval მოიხმარს 9,149 ტოკენს, ხოლო G-Memory-მაც კი მიაღწია 6,055 ტოკენს. ALMA-მ დაახლოებით 1/7-დან 1/5-მდე ხარჯებით მიაღწია უკეთეს შესრულებას.

დასკვნა
ALMA აჩვენებს Software 2.0-დან (Neural Networks) Software 3.0-ზე (AI-Generating Algorithms) გადასვლის შესაძლებლობას.
Agent-ის განვითარებაში მეხსიერების მოდულის დიზაინი დიდი ხანია ინჟინრების ინტუიციაზეა დამოკიდებული. ALMA-მ დაამტკიცა, რომ მეტა-სწავლისა და კოდის გენერირების საშუალებით, AI-ს შეუძლია ავტომატურად აღმოაჩინოს მეხსიერების ოპტიმალური არქიტექტურა კონკრეტული გარემოდან გამომდინარე.
რესურსების ბმულები
- ნაშრომი: https://arxiv.org/pdf/2602.07755
- კოდი: https://github.com/zksha/alma
- პროექტის მთავარი გვერდი: https://yimingxiong.me/alma





