パラメータ調整不要、コードを書くだけ!Jeff Cluneチームの新作:Meta Agentによる記憶モジュールの自動進化
パラメータ調整不要、コードを書くだけ!Jeff Cluneチームの新作:Meta Agentによる記憶モジュールの自動進化
Software 3.0へ、AIが自らPythonコードを書いて脳を進化させる。

Agent開発の深淵において、記憶(Memory)は常に避けて通れない難題である。
基礎モデルの能力は日々向上しているものの、推論プロセスは本質的にステートレス(Stateless)であり、Agentが継続的に経験を蓄積する能力を制限している。
現在、業界で記憶を処理する主流な手法は、RAGであろうとスライディングウィンドウによる要約であろうと、本質的には依然として人手で設計されたヒューリスティックなルール段階にとどまっている。
このような手作りの記憶モジュールは極めて脆弱で移植が難しく、対話システム向けに綿密に調整されたPromptや検索ロジックは、長期的計画タスク(ALFWorldなど)や複雑な戦略ゲームに適用すると、しばしば直接機能しなくなる。

この困難に対し、UBC教授でOpenAIの元研究員であるJeff Cluneチームは、ギークな解決策を提示した。
どのような記憶構造が最適かわからないのであれば、Agent自身にPythonコードを書かせて設計させればよい。
これが、発表されたばかりの ALMA (Automated meta-Learning of Memory designs for Agentic systems) である。
ADASからALMAへ:コードベースの自動設計
ALMAは、同チームが近年推進しているAI生成アルゴリズム技術路線の延長線上にある。

ADAS (Automated Design of Agentic Systems) において、チームはAgentアーキテクチャを設計する際、コードはニューラルネットワークの重みやSoft Promptsよりも効率的な探索空間であることを証明した。コードはチューリング完全であり、極めて高い説明可能性を備えている。

その後、DGM (Darwin Gödel Machine) において、チームは進化アルゴリズムにおける開放的な探索の概念を導入し、設計アーカイブを維持し、モデルが斬新な解決策を探索することを奨励した。

ALMAは、ADASのコード生成パラダイムとDGMの進化戦略を継承し、応用シーンをAgentシステムにおいて最も人手による経験に依存するコンポーネントである記憶に焦点を当てている。
ALMAの動作メカニズム
ALMAの実行メカニズムは、標準的なメタ学習の閉ループである。Meta Agentはタスクを直接処理するのではなく、プログラミングを担当する。プロセスには4つの段階が含まれる。
- 構想:現在の記憶設計アーカイブを分析し、過去のパフォーマンスに基づいて改善案を構想する
- 計画:構想を疑似コードロジックに変換する
- 実装:実行可能なPythonコードを記述し、コア関数を定義する
- 評価:生成されたコードをサンドボックス環境にデプロイしてタスクを実行し、パフォーマンス指標をフィードバックする

進化の過程で、ALMAは巨大な設計ツリーを生成する。反復回数が増加するにつれて、生成される記憶コードは、単純なストレージロジックから複雑な認知アーキテクチャへと徐々に進化する。

進化した記憶構造
ALMAが生成した記憶設計は、さまざまなタスクにおいて極めて大きな差異を示した。
- MiniHack(ダンジョン探索):Risk and Interactionモジュールを設計し、HPを減少させる操作とモンスターの攻撃性を明示的に記録する
- Baba Is AI(ロジックパズル):Strategy Libraryを設計し、ステージをクリアするために必要なルールの組み合わせを記録する

これは、AIがタスクの特性を識別できることを示している。サバイバルゲームはリスクに注意する必要があり、パズルゲームはルールの抽象化に注意する必要がある。
実験結果
TextWorld, ALFWorld, MiniHack, Baba Is AIの4つの環境で、ALMAと主要なベースラインを比較した。
GPT-5-miniモデルにおいて、ALMAの平均成功率は 53.9% に達し、G-Memory (46.0%) と Trajectory Retrieval (48.6%) を上回った。

コスト効率の面では、ALMAは平均 1,319 tokens しか消費しないのに対し、Trajectory Retrievalは9,149 tokens、G-Memoryも6,055 tokensに達した。ALMAは、約1/7から1/5のコストで、より優れたパフォーマンスを実現した。

結論
ALMAは、Software 2.0 (Neural Networks) から Software 3.0 (AI-Generating Algorithms) への移行の可能性を示している。
Agent開発において、記憶モジュールの設計は長らくエンジニアの直感に依存してきた。ALMAは、メタ学習とコード生成を通じて、AIが具体的な環境に応じて最適な記憶アーキテクチャを自動的に発見できることを証明した。
関連リンク
- 論文:https://arxiv.org/pdf/2602.07755
- コード:https://github.com/zksha/alma
- プロジェクトホームページ:https://yimingxiong.me/alma





