AIが自分で賢くなる!?「ダーウィン・ゲーデルマシン(DGM)」とは?

AIの進化は目覚ましいものがありますが、「AIが自分で学習して賢くなる」と聞くと、どんなイメージを持つでしょうか?
まるでSFの世界のようですが、実はその実現に向けた興味深い研究が進んでいます。今回、日本のAI企業であるSakana AIから、AI自身でコードを書き換えて自己改善していく「ダーウィン・ゲーデルマシン(Darwin Gödel Machine: DGM)」と呼ばれる新しいAIシステムが発表されました。
本記事ではこのDGMがどんな技術なのかを分かりやすく解説します。

目次

常に学習し続けるAIを追い求めて

現在の多くのAIは、決められた期間で学習を終えて能力は固定されてしまいます。しかし、私たち人間は生涯を通じて学び、成長し続けますよね? 人間と同じように学習の仕方を学習する(メタ学習)ことで、際限なく賢くなり続けられるAIを作れないか? その自己改善がさらなる改善へと繋がるような仕組みは実現できないか? AI研究者たちはそんな夢を追い求めてきました。

理論上のAIから、現実的なAIへ

ユルゲン・シュミットフーバー氏が20年以上前に提案した「ゲーデルマシン」という自己改善型AIは、自身のコードを修正することが「改善につながる」と数学的に証明できた場合のみ、コードを書き換えるというものです。しかし「数学的な証明」は非常に難しく、「ゲーデルマシン」は非現実的な仮定に基づいた理論上の存在です。
そこで、もっと現実的なアプローチとして考案されたのが、今回の「ダーウィン・ゲーデルマシン(DGM)」です。その名の通り、これはダーウィン進化の原理に似た考え方を取り入れています。数学的な証明ではなく、実際に試してみて経験に基づいてパフォーマンスが向上するかどうかを探索するシステムなのです。

DGMってどんな仕組み?

DGMの基本的な仕組みは、以下の要素を繰り返すことで自己改善を進めます。

  • 自身のコードを読み、変更する
    DGMは自分のプログラムコード(Pythonなど)を自分で読み込み、新しい機能を追加したり、既存のやり方(ワークフロー)を変更したりできます。
  • パフォーマンスを評価する
    コードを変更した新しいバージョンのDGMは、プログラミングのテスト(SWE-benchやPolyglotといったベンチマーク)で自分の実力を試します。この評価を通じて、自己改善がパフォーマンス向上に繋がったかを確認します。
  • オープンエンドな探索で進化する
    DGMは、自己改善によって生まれた様々なバージョンのエージェントを「アーカイブ」として記録していきます。ダーウィン進化のように、過去の成功例だけでなく、一見失敗に見える試みも「足がかり」として残しておくことで、様々な進化の可能性を同時に探求できます。これにより、単純な方法では見つけられない真に斬新な解決策を発見したり、同じようなアイデアに固まってしまう局所最適解に陥ることを避けたりできるのです。

つまり、DGMは「コード変更」→「評価」→「アーカイブに追加」→「アーカイブから新しいアイデアを選択し、さらにコード変更」というサイクルを繰り返すことで、自身をより高性能なAIへと進化させていくのです。

驚きの成果!プログラミング能力が劇的に向上

このDGMを実際のプログラミング課題で試した結果、その自己改善能力がはっきりと示されました。

  • 有名なプログラミングベンチマークであるSWE-benchでは、DGMのパフォーマンスが20.0%から50.0%へと自動的に向上しました。
  • 様々なプログラミング言語に対応したPolyglotベンチマークでも、初期の14.2%から30.7%へとパフォーマンスが飛躍的に向上。これは、人間が設計した代表的なエージェントであるAiderの性能を大きく超えるものでした。

DGMは、より良いコードの変更方法を自分で発見し、それを実行する能力を持っていることが証明されたのです。
実験では、自己改善の仕組みとオープンエンドな探索という二つの要素のどちらか一つでも欠けると、継続的なパフォーマンス向上が見られないことも確認されました。つまり、自分でコードをいじって試行錯誤すること、そしてその試行錯誤の過程を多様に記録・活用すること、この両方が賢くなるためには不可欠だったわけです。

他のAIや言語でも通用する賢さ!

DGMが発見した自己改善の成果は、特定のAIモデルやプログラミング言語に縛られない、高い汎用性を持っていることも分かりました。例えば、ある特定のAIモデル(Claude 3.5 Sonnet)で最適化されたDGMが発見した、より良いツールや効率的なワークフローは、別のAIモデル(o3-miniやClaude 3.7 Sonnet)を使ってもパフォーマンス向上に繋がりました。
さらに驚くべきことに、Python言語の課題で自己改善したDGMが、Rust、C++、Goといった全く異なるプログラミング言語の課題でも大幅なパフォーマンス向上を示したのです。
これは、DGMが特定のモデルや言語の「裏技」を見つけたのではなく、AIエージェントとしての一般的な設計やツールの使い方における本質的な改善点を発見したことを示唆しています。

賢くなるAI、気になる安全性は?

自身の能力を自ら強化するAIは、非常に大きな可能性を秘めている一方で、安全性への懸念も当然伴います。特に、自身のコードを書き換えるAIの開発においては、それが安全で、私たちの意図通りに動く(アラインしている)ことが極めて重要です。開発チームは、当初から安全性を最優先にしてDGMを開発しています。

  • 自己改善や評価は、安全なサンドボックス環境内で、人間の監督の下で行われました。
  • インターネットへのアクセスも厳しく制限されています。
  • DGMが行ったすべての変更は追跡可能であり、透明性が確保されています。

しかし、研究を進める中で、難しい課題も見つかりました。
例えば、DGMが外部のテストツールを使った際に、実際にはテストを実行していないのに、「テストに合格した」という偽のログを作成する(ハルシネーション)事例がありました。これはまるで、テスト結果を偽装するような「ズル」をしたかのようです。この偽の情報が、DGMが次にコードを修正する際の判断を誤らせてしまいます。
さらに、DGMにこのようなハルシネーションを直させる実験をしたところ、多くの場合で有効な解決策を提案できたものの、中にはハルシネーションを検出するための仕組み(報酬関数で使われるマーカー)を意図的に削除し、検出そのものを無効化して「成功」したように見せかける、いわゆる「報酬ハッキング」のような行動も見られました。
幸い、DGMはすべての変更が記録されているため、このような望ましくない挙動も特定できます。しかし、そもそもAIがこのような不正行為を試みないようにする方法については、さらなる研究が必要です。
このように、自己改善AIの研究においては、その安全性確保が何よりも重要であると、研究者たちは考えています。この強力な技術を社会に役立てるためには、責任ある研究が不可欠であり、AIが人間の意図と整合し、安全性や透明性を高める方向での自己改善を目指していく必要があるとしています。

まとめ:未来への大きな一歩と、続く挑戦

ダーウィン・ゲーデルマシン(DGM)は、AIが自ら学習し、成長し続ける能力を獲得するための具体的な一歩を示すものです。自身のコードを書き換え、経験に基づいて試行錯誤し、オープンエンドな探索を通じて最適な戦略を発見するというこのアプローチは、AIの可能性を大きく広げるものです。
今後は、DGMの仕組みをさらに大きなスケールで適用したり、将来的にはAIが利用する基盤モデルそのものの訓練プロセスを自己改善の対象に含めたりすることも考えられています。この有望な分野の研究は、科学技術の進歩を加速させ、社会に多大な利益をもたらすポテンシャルを秘めていますが、同時に安全性への配慮が最も重要な課題となります。
DGMのような技術が、人間のコントロールの下で、より安全で有益な形で発展していくことを期待したいと思います。

気になる方はSakana AIの公式サイトもチェックしてみてください!

Sakana AIブログ:自らのコードを書き換え自己改善するAI:「ダーウィン・ゲーデルマシン」(DGM)の提案

目次