Sakana AIが進化の先に見る“自然としてのAI”

人工知能(AI)のブームとも言える盛り上がりを見せた2024年において、Sakana AIが特に注目される理由はいくつかある。もちろん、「魚」という、AIスタートアップとしては風変わりな名前もそのひとつだろう。AI開発の文脈においては、近年のテクノロジー史上最も重要なブレイクスルーとも言われ、現在の生成AIブームの起点となったTransformerモデルの開発者たち8人(いわゆる“トランスフォーマー・エイト”)のひとりがCTOを務めていることも注目に値する。さらには、国際色豊かなチーム編成であるにもかかわらず、この日本の文化やそこにある強みを活かして東京に拠点を置いていることも、理由に挙げられるだろう。

だが何よりもSakana AIを際立たせているのは、データやパラメーター、資金とエネルギーを蕩尽する近年の大規模言語モデル(LLM)の開発手法とは一線を画する、いわばオルタナティブなAI基盤モデル開発手法を世界に提示してみせたことだ。「進化的モデルマージ」という技術をはじめとし、彼らが現在まで開発してきた技術には、AIが人間や動植物と同じように自然や周りの環境、人間を含む他のエージェントとの相互作用によって選択され、淘汰され、進化しながら、個としてではなく全体として群知能を発揮していくような(だから魚なのだ)、より本質的で広大な世界観すら感じられる。

これから世界中でAIの社会実装における主戦場となっていくAIエージェントの領域で、今年8月に、LLMを使って研究プロセスそのものを自動化する「AIサイエンティスト」を発表したSakana AIの共同創業者であるCEOデイビッド・ハとCTOライオン・ジョーンズに、AI開発競争のゆくえ、進化的モデルマージの優位性、AIと人間の共存の可能性について訊いた。

──つい最近、Transformer論文についての新たな記事を『WIRED』で出しました。「AIの歴史を変えた「トランスフォーマー」、その破格の成功は偶然だったのか?」というものですが、ライオンさんはTransformer論文の執筆者のひとりです。当事者ですら、なぜあれほどこのAIモデルがうまく動くのかを理解していない、というこの記事についてはどう応えられますか?

ライオン・ジョーンズ(LJ) ええ、そう思います。AI研究のひとつの問題は、とても実証的であるということです。何かがうまくいくかどうかは実際に試してみるまで分からず、何がうまくいって何がうまくいかないかに、しばしば驚かされます。

わたしたちがグーグルでTransformerを設計したとき、明確に意図して行なったことがいくつかあります。そのことが、なぜあれほど成功し、いまでもこのモデルが使われているのかを説明する鍵になります。それは、「苦い教訓(Bitter Lesson)」と呼ばれるものに関連します。AIモデルがある程度の精度をもっていて、さらにその精度を高めたい場合、ふたつの選択肢があります。ひとつは、AI研究者としてアーキテクチャのハイパーパラメータを変えてみたりして、さまざまな手法を試すことです。あるいはもうひとつの方法として、データを10倍に増やし、モデルを10倍大きくするという単純な方法もあります。そして、常に勝つのは後者なのです。つまり、前者がとてもシンプルな後者の手法に負けてしまうため、AI研究者にとっては非常に悔しいことなので「苦い教訓」と呼ばれているわけです。

ライオン・ジョーンズ|Llion Jones Sakana AI共同創業者CTO。グーグル在籍時の17年に、生成AIの爆発的普及の土台となる技術「Transformer」に関する論文を著者のひとりとして発表。休暇で訪れた日本に関心を抱き、グーグルの日本法人でも勤務。

PHOTOGRAPH: SHINTARO YOSHIMATSU

わたしたちがTransformerに取り組んでいた頃、グーグルはAIを加速するための独自のハードウェア、つまりTPU(Tensor Processing Unit/特定用途向け集積回路)に取り組んでいました。これは、行列の積をできるだけ高速で行なうよう設計されていました。そこでわたしたちは、TPUの能力を活用して、非常に大きな行列積を非常に高速に行なおうとしたんです。

当時の最先端はリカレントニューラルネットワーク(RNN)でしたが、残念ながらこれはステップごとに動作し、小さな行列積を順次行なう必要があり、遅かったんです。一方で、リカレント接続を取り除けば、大きな行列積を並列に一度に行なえることが分かりました。例えば、RNNが1,000語を処理しているとします。これを1,000ステップで行なう代わりに、すべてを完全に並列に処理することで、学習をより高速に行なえ、モデルを大きくし、より多くのデータを処理することができました。

これがTransformerが非常に成功した大きな理由であり、「苦い教訓」を活かしてスケーリングが非常に容易になったわけです。そして、Transformerがいまでも使われている理由は、その技をすでに使ってしまったからです。わたしたちはTransformerで可能な限りの並列化を即座に行ないました。そのため、「苦い教訓」を引き続き活用することはもはや難しいのです。

つまりいくつかの驚きがあり、なぜこれほどまでにうまく機能するのか、わたしたちはまだ完全には理解していないと思います。それでも、最初に意図的に設計した決定が成功につながったことは確かです。

PHOTOGRAPH: SHINTARO YOSHIMATSU

──なるほど、「知的負債」という言葉があります。「答えが先で説明はあと」といった問題の解決法に頼り続ける状況を指す言葉ですが、今後人類はAIに対して知的負債を抱えていくことになりますか?

LJ わたしはこう考えるのが好きです──AIが本当に機能し始めた要点は、実際には非常に驚くべきものでした。なぜなら、科学者やSF作品でさえ、わたしたちが最初に行なうのは脳をリバースエンジニアリングすることであり、まさにレイ・カーツワイル的なステップ1だと考えていました。次に、それをシリコン上に実装するというのがステップ2です。

しかし、実際には全くそうはなりませんでした。起こったのは、わたしたちが知能の定義の絶妙なオルタナティブ、つまり「次の単語を予測できること」を思いついたことです。そして、非常に強力なコンピューターと、ニューラルネットワークのような柔軟なコンピュータープログラムの探索空間がありました。わたしたちはこのさまざまなプログラムの空間を探索し、知的であるように見える、つまり次の単語を非常によく予測するものを探しました。その結果、多くの知能がそこから自然に生まれたのです。

そして、わたしたちはこのプログラムの仕組みを理解しようとしています。知能がどのように機能するのかを実際にわたしたちが完全に理解する前に、非常に知的な機械をつくり出すことができたというのは、とても驚くべきことだと思います。

デイビッド・ハ(DH) これらのシステムがどのように動作するのか、わたしたちが理解できない可能性は高いと思います。でも、それは必ずしも驚くべきことではないとわたしは思います。

Sakana AIは、基盤モデルだけでなく、その背後にある複雑なシステムを研究したいと考えています。それは、社会における集合知と同じようなものです。つまり人間の行動や社会を研究しなければならないのです。わたしたちは自分たちの脳がどのように機能しているのかを理解していませんが、政府や警察システムは人々を統治する方法を理解しなければなりません。これは複雑なシステムです。

デイビッド・ハ|David Ha Sakana AI共同創業者CEO。トロント大学卒、東京大学で博士号。ゴールドマン・サックスのマネージングディレクターを務め、グーグルのAI研究者に転身。Google Brainの研究チームを率いた。23年Sakana AI設立。

PHOTOGRAPH: SHINTARO YOSHIMATSU

わたしの見解では、これはAIエージェントにおいても同じになるでしょう。AIエージェントは何が得意で、どの分野が不得意かがわかっていますし、協力して働くための最適なシステムを見つけなければならない。つまり、AIと協働するためには複雑系のアプローチを実装しなければならないということです。例えば、わたしたちはお互いがどのように機能しているかを知らなくても、社会は何とか機能していますよね。

これは哲学的に言えば、Sakana AIの「AIサイエンティスト」をつくるうえでの問題に対するわたしたちのアプローチ方法でもあります。「AIサイエンティスト」を使ってさまざまなAIモデルのコンポーネントを組み合わせ、実世界のシステムでそれらを動作させ、実験を行ない、論文を書くとき、各コンポーネントがどのように動作するかをわたしたちは100%は理解していないかもしれません。それでも、あたかもそうしたAIと一緒に働いているかのように協力して作業するわけです。

──コンポーネントの組み合わせということで、Sakana AIが開発した進化的モデルマージについてもうかがいます。2024年は誰もがLLMについて話していましたが、Sakana AIは、いわば群知能のような発想でLLMを開発しています。そこで、他社のLLMとSakana AIのLLMとの違いは何でしょうか?そのデータ基盤や考え方はどのように異なるのでしょうか?

DH Sakana AIは純粋にLLMを提供するビジネスをしているわけではありませんが、そうしたビジネスを行なっている企業はたくさんあります。つまり、OpenAIやグーグル、メタ・プラットフォームズ、ほかにも数え切れないほどありますよね。

ビジネスの観点から言えば、それで利益を出すことは決して容易ではありません。わたしたちがこの会社を始めたとき、周りと必ずしも同じ方向ではない、自分たちが興味深いと信じるアイデアに取り組もうとしました。そうした研究開発のアプローチは理想主義的かもしれませんが、ビジネスの観点からも、日本では米国のAI開発者たちよりもう少し賢く物事を行なう必要がありました。単に米国のビジネスモデルをコピーすることはできません。

というのも、現実として誰もがお金を失っているからです。いまのところ成功したビジネスモデルは存在しません。だとすれば、米国企業が失敗したビジネスモデルを、なぜ日本でコピーする必要があるでしょうか? 特に、そのようなビジネスモデルは日本では賄えない莫大なエネルギー投資を必要とします。

PHOTOGRAPH: SHINTARO YOSHIMATSU

わたしたちが研究開発に取り組むとき、その根本には挑戦があります。進化的モデルマージを開発するにあたっては、こう自問したんです。日本や世界の人々のために、いまあるLLMと同等のものを、100万分の1のコストでつくれないだろうか、と。そこがポイントでした。100万分の1以下のリソースで、日本語、数学、コーディング、画像生成などの異なるモダリティをもつ高性能なカスタムモデルを、文字通り数千ドルの予算でつくれることを示したんです。米国のこれまでの開発手法であれば、数千万から数億ドルを必要とする機能です。OpenAIがやったことを、100万分の1のコストでつくれたのです。

LJ これはわたしたちの哲学に最初から組み込まれていました。ご存知のとおり、わたしたちがビジネスを始めたいと思った主な理由の一つは、自分たちが望むようなビジネスをしていなかったからです。おっしゃる通り、誰もがLLMにあまりにも集中しすぎているということも一因でした。この技術から多くの価値を引き出せることは理解していますが、わたしたちはそれがそれほど興味深い方向に進んでいるとは感じませんでした。

わたしにとって重要なのは、採用した研究者たちが創造性を発揮する自由をたくさんもつこと、そして、非常に興味深いアイデアをもつ人々を見つけることです。

──Sakana AIは進化的モデルマージの手法によってAIを民主化して、誰もが自分の方法でコンポーネントを組み合わせて、自分のAIモデルを作成するという未来を見据えています。一方で、それは非常に複雑にも聞こえます。わたし自身、進化的マージモデルについて完全には理解できていません。近い将来、AIモデルを誰もがカスタマイズできるようになり、技術が民主化されると本当に思われますか?それとも、まだ非常に難しく、それを行なえるのは、結局のところ大企業だけになるのでしょうか?

DH わたしたちが進化的モデルマージを作成した後、米国では多くの人々がそれを拡張しようとしているんです。モデルマージに基づく技術を使用し、ビジネスモデル全体を構築しているスタートアップもあります。つまり、安価なカスタマイズモデルを作成する市場が確実に存在するんです。その基盤をわたしたちが築いたことを嬉しく思ってます。

PHOTOGRAPH: SHINTARO YOSHIMATSU

この背後にある哲学は、多くの献身的な研究者や技術者によって訓練された既存のモデルがすでにたくさんあるのだから、ゼロからやり直すべきではないということです。進化的モデルマージの手法では、一から再スタートするのではなく、すでに存在するモデルのパーツを進化の単純なアルゴリズムを使って組み合わせ、新しいモデルをつくることができます。それはとても簡単です。10,000個のモデルからユーザーが望むものを見つけるために進化アルゴリズムを使うんです。ユーザーが望むものを見つけ、それを試し、混ぜ合わせ、ある部分と別の部分をマージして組み合わせることで、ユーザーのニーズを満たすモデルを作成するのです。モデルのマージ方法は人間が探すのではなく、コンピューターに任せます。なぜなら、コンピューターは異なる要素を最適化することを理解していて、そうした問題を解決するのが得意だからです。

これは新しいことではありません。進化的アルゴリズムは何十年も前から存在しています。わたしたちはとてもシンプルな技術を適用して、基盤モデルを組み合わせる新しい方法を見出したわけです。何か突飛な新しいものではなく、実際に非常に論理的なものなんです。

──あなた方はオープンモデルを使っていますよね。もしアルゴリズム自体が簡単でシンプルなものならば、ビジネスモデルはどこにあるのでしょうか? 何を内部に留めていて、何を皆にオープンにしているのでしょうか?

DH 進化的モデルマージそのものは学術論文です。ご存じのとおり、特に日本のAIスタートアップにとっての落とし穴のひとつは、初日から商業化を考えていることだと思います。純粋な学術論文では、再現性を高めるべきです。だからこそ、わたしたちは人々が手法を再現できるように、オープンなモデルに焦点を当てています。

もちろん、商業的な文脈で使用される場合、オープンなモデルを使う必要はありません。状況に応じてクローズドなモデルを使用するでしょう。

PHOTOGRAPH: SHINTARO YOSHIMATSU

──進化的なAIモデルというと、『WIRED』の創刊エグゼクティブエディターであるケヴィン・ケリーが書いた『テクニウム』を思い出します。テクニウムとは、テクノロジー自体も生命と同じように進化の法則のもとにあるという捉え方です。実際、こうした考え方は何十年も前から存在してきました。テクノロジーが生命のように振る舞い、生物界と融合していくと考えてきたわけです。Sakana AIのアプローチは、これがついに実現しているのだと気づかせてくれます。多くのAIモデルが進化し、多くの生態的ニッチが生まれていくような世界について、どのようにお考えですか?

LJ そうですね、わたしたちにはそのような哲学があると思います。それは自然からインスパイアされたと言えるでしょう。わたしたちのロゴも、魚が群れのように集まるシーンを象徴しています。そして、テクノロジーを人間から分離したものとして考えていないという視点には、わたしも完全に同意します。テクノロジーはわたしたちが発明した、独立したものではなく、人間の物語全体の進化の一部です。

つまり、テクノロジーは人間の生活を向上させるために使われ、同時に人間はまた、テクノロジーを向上させます。そして当然、テクノロジーはそのフィードバックループをもち、テクノロジー自体がさらにテクノロジーを改善するために使われることもあります。

実際、Sakana AIには、メタエージェントについての論文を書いた者もいます。これは、「AIサイエンティスト」のようなもので、実験を考えて実行するだけではなく、その実験自体が「よりよいエージェントをつくる方法」を探るものになっているんです。つまり、こうしたテクノロジーが自らを改善する能力をすでに目にしはじめているわけです。

そして、人間もその一部です。わたしには、こうしたAIの進化はほとんど自然の一部のように感じます。さらなる知性を生み出すことというのは、本当に知的な存在が行うべき自然な行為です。

PHOTOGRAPH: SHINTARO YOSHIMATSU

──つまり進化的モデルマージは、自然そのものを表現していると。

DH ケヴィンの哲学的な視点はわたしも好きです。実際のところ、生物学的進化は文化的進化よりも何百万倍も遅いですよね。わたしたちがこれほど素早く賢くなった理由は、文化的進化とアイデアの拡大によるものだと思います。生物学的には、わたしたちの身体は10万年前と同じですが、文化の普及によってアイデアを伝達することができるようになりました。それこそが人間の知性、つまり集合知だと思います。それは単一の知性ではなく、ミーム(文化的遺伝子)に拠るものです。

わたしたち人類はひとつの巨大なモデルではなく、実際には80億の小さなモデルの集まりです。それでも膨大な力をもっています。アイデアを交換し、発展させ、議論し、時には投票し、戦争さえして、いまの地点まで来たんです。同様に、科学の進歩や科学革命も、人々がアイデアを交換し、組み合わせ、科学的プロセスに則って議論するようなシステムを促します。この意味で、科学革命はテクノロジーのミームとして機能しているように思います。将来、よりよいパラダイムがあるかもしれませんが、わたしたちにはわかりません。

ライオンがメタエージェントの探索やAIサイエンティストについて言及したように、わたしたちは実際に科学コミュニティのプロセスをモデルにしてLLMを作成しています。LLMがアイデアを生み出し、論文を書きますが、LLMのレビュアーエージェントもいます。将来的には、バーチャルな学会やバーチャルな科学的発見することも計画しています。

AIサイエンティストは、LLMがハルシネーション(幻覚)を起こす現象を逆手に使い、人間と同様に、過去のアイデアを組み合わせて新しいアイデアを「想像」することができます。科学者が議論を深めてその新しいアイデアを検証するのと同様に、AIサイエンティストはバーチャルな技術的議論からインスピレーションを得て、関連する過去の研究事例を収集し、アイデアの妥当性を検証します。

PHOTOGRAPH: SHINTARO YOSHIMATSU

──近い将来に、人間はAIマシンや動植物といった多様なエージェントと暮らしていると思うのですが、AIは人間同士の関係性のなかに存在するのでしょうか、それともAIだけで独自の集合知のようなものをつくるのでしょうか。AIの知能はわたしたちよりもはるかに高速です。その場合に、人間とAIは分離されていくのか、それとも共存できるのでしょうか?

LJ とても難しい質問ですね。おそらく両方でしょう。AIはわたしたちの日常の活動に非常に密接に統合されていくと思います。皆が言っているように、わたしたちは皆、パーソナルアシスタントをもつようになり、これらと非常に頻繁にやり取りすることになります。

また、奇妙な未来も想像しています。パーソナルアシスタントがわたしたちの代わりに電話に出るようになるでしょう。そして、AIが電話をかけてきて、あなたのアシスタントに、あなたが望まないこと、例えば必要のないものを購入させようと説得するケースもあるでしょう。

その結果、クラウド上で人間よりも多くのAIが、お互いに話し合っていて、わたしたちは何が起こっているのか全く気づかない状態になるかもしれません。このようなAI世界の拡大は、AIを急速に進化させるでしょう。なぜなら、少数の悪意から守る方法を学ばなければならないからです。

PHOTOGRAPH: SHINTARO YOSHIMATSU

DH わたしも両方が起こると思います。ある領域ではわたしたちが思うよりも早く、他の領域では遅く起こるかもしれません。現在、職場でLLMエージェントの導入で成功した応用例の一つはソフトウェアエンジニアリングです。多くのツールがエンジニアを支援してコードを書き、問題を解決しています。その場合、AIは本質的に同僚になります。これは、ライオンやわたしがLLMソフトウェアエンジニアエージェントに「このバグを修正してください」と頼むようなものです。それが頻繁に起こると、あたかもバーチャルな同僚をもつことになります。ひとりだけでなく複数もつこともできて、お互いにタスクを割り当てることもできます。

基盤となるエージェントによって、エージェントを自動でたくさんつくるようになるでしょう。ただし、ハルシネーション(幻覚)の問題があります。ソフトウェアエンジニア・エージェントがうまく機能するのは、コードを実行して動作を確認できるからです。ですから、この領域ではほかの領域より早く、多くのAIエージェントが働く世界になるでしょう。エージェントが実際に行動し、その影響を注意深く観察する必要がある領域──例えば公共政策などでは、もっと実現が遅くなるでしょう。

それに、もっと多くの規制が必要になると思います。多くの政治が関わってくるでしょう。ソフトウェアエンジニアリングの分野では、それが早く起こると思います。仮想の仲間がいればお互いに話し、多くの人とバーチャルゲームができますからね。

──例えばNTTは、AI同士を星座のように接続して社会的な問題を解決する「AIコンステレーション」構想があります。そのようなAIを使うのに有望な分野はどこでしょうか? 多くの異なるAIモデルが集まって社会問題を解決できるとすれば、具体的にどの部分でそれが可能だと思いますか?

LJ わたしは医療分野への応用に強い関心があります。医療には多くの規制があるので時間がかかりますが、生物は非常に複雑なので、人々がいつ病気になるか、何が効果的で何が効果的でないかなど、すべての論文を読んでデータを取り込むためには、いまやAIが必要です。ですから、AIが医学の進歩を本当に加速させる日を楽しみにしています。

DH このような異なるAIモデルを集めるアプローチは、AI研究そのものに直接適用すべきだと思います。第一世代のエージェントはそれほど優れていないかもしれませんが、AIサイエンティストのように、よりよいAIを作成することができます。つまり、AIは自然によりよくなっていくんです。AIの能力が指数関数的に増加していけば、人間が解決できない、より難しい問題を解決できるかもしれません。

──なるほど、そこでお聞きしたいのですが、わたしたち人間が何かを「理解する」というときに、AIも同じように「理解」をしているのでしょうか? 近い将来にAIと密接に共存する場合に知っておくべきだと思うのですが、AIにおける「理解」をどのように定義しますか?

LJ インターネットを見れば、AIがすでに意識をもっているという意見から、何も理解していないという意見まであります。真実はその中間にあると思います。誰かがChatGPTや強力なバージョンのClaude、そのほかの高度なLLMと話すとき、AIが何も理解していないと主張するのはとても難しいと思います。ですから、AIはある意味であなたが言っていることを理解していると言えます。しかし、人間が理解するのと同じ方法で理解しているかどうかは、答えるのがはるかに難しい質問です。

PHOTOGRAPH: SHINTARO YOSHIMATSU

──先日、GoogleのAI開発者であるブレイズ・アグエラ・イ・アルカスとAIのワールドモデルについて話したのですが、彼は「AIはすでにワールドモデルをもっている」と言っていました。あなたもそう思いますか?

LJ ある論文の著者たちは、ワールドモデルを作成していると確信しているんです。それは、AIに大量のオセロのデータを入力して、オセロをプレイするように訓練する実験です。人々は、それでもAIが本当にオセロを理解しているわけではないと主張するでしょう。でも、本当に理解しているといえる証拠があります。実際に、著者たちは、AIが2次元のグリッドと駒の位置を表現していることを発見しました。つまりオセロのワールドモデルをつくったと言えるのです。このAIを訓練する際、データ自体はただの長い手順の列で、2次元のグリッドであることは何も示されていませんでした。それでも、オセロの世界をつくり出すことができたというわけです。これは一般的なLLMにも当てはまると思います。

──あなたがつくったAIモデル、つまり進化的モデルマージで作成したモデルにも、意識やワールドモデルがあると言えるでしょうか。

DH とても哲学的な問いだと思います。それぞれの言葉を明確に定義することは困難です。

──ええ、その通りですね。

DH 意識やワールドモデルといったものは、“ある”と“ない”の中間にあるでしょう。ブレイズは、最小のLLMでさえ意識をもっていると信じています。これはスペクトラムのようなものだと思います。LLMの理解が、人間が何かを理解する方法と似ているかどうかをわたしたちが知ることは決して容易なことではないでしょう。わたしたち自身、まだ自分の行動を理解しているとも言えないわけですから。

──わたしたち人類はこれからしばらくの間、これについて議論し続けるんでしょうね。

LJ ええ、きっとそうでしょう。

PHOTOGRAPH: SHINTARO YOSHIMATSU

──最後に日本についてもうかがいます。SakanaAIがなぜ東京を拠点に選んだのかについてはすでにたくさん話していることと思います。日本はアニミズムの伝統が残る社会なので、AIの受容という点では日本の文化は適しているという議論があります。この点について、どうお考えですか?

LJ ええ、それについてはあまり付け加えることはありません。その哲学に完全に同意します。すべての物体には魂があるという信念が日本にはありますよね。来日当初は、すべてのテクノロジーがわたしに話しかけてくるのがとても奇妙でした。お風呂が話しかけてくるといまでも笑ってしまいます。

でももちろん、日本で生まれ暮らすあなたにとっては完全に普通のことですよね。普通すぎて、日本において非人間的な物体が知性をもつというアイデアがすでに文化の一部であるということに、気づいていないかもしれない。すでにこの技術を受け入れる意欲が高い国で事業を始めたことは、大きな利点だと思っています。

DH これはデータによっても裏付けられています。先日の『エコノミスト』の記事でも、さまざまな国の人々に調査したデータが引用されており、日本はAIの受け入れ度が最も高く、不安指数が最も低い国の一つだとされています。おそらく米国は最も高い国の一つでしょう。

──どうもありがとうございます。2025年の世界に向けて、SakanaAIでは何が起こりますか?AI業界では何が起こるでしょうか?

LJ 両方に答えたいと思います。2024年には、AIエージェントが流行語になりましたが、誰もそれらを十分安定的に動作させていないように感じます。その方向での進歩は今後も確実に進んでいます。

実際にわたしたちが最初のエージェントである「AIサイエンティスト」で開発したのは、アイデアを考え、反復し、新規性をチェックし、実験を行ない、コードを書き、論文を執筆し、査読するものですが、実は、その各ステップで失敗する可能性があります。もし各ステップの失敗の可能性が高すぎると、システムが最後まで到達することはできません。

しかし、LLMがますます優れた、堅牢なものになり、それらをさらに安定させるためのさまざまな技術を開発し、エージェントの組み合わせ方を見つけたことで、「AIサイエンティスト」は十分に堅牢になり、論文を満足いく頻度で執筆できるようになりました。

PHOTOGRAPH: SHINTARO YOSHIMATSU

ですから、2025年についての全体的な答えとしては、AIエージェントが本当に安定的に動作し始め、それが多くのアプリケーションで開くようになることで、それらをビジネスに統合することに人々はより積極的になるでしょう。これが最大の目標の一つになると思います。実際、それについてはかなり自信があります。というのも、皆がこの方向で取り組んでいるからです。いまでは推論をより堅牢にする方法や、これらのものをエージェントシステムに組み込む方法に取り組んでいます。

DH これはビジネスの観点からも同じです。現在のAIはハイプサイクルを経験していると思います。いま話してきた技術の多くは、それが本当に機能することをまだ証明していません。エージェントが機能するかもしれないし、しないかもしれない。にもかかわらず、多くのベンチャーキャピタルがこうした技術に投資し、多くのお金が使われて燃えているのが現状です。

ですから、実際には2025年、AIスタートアップのバリュエーションについては調整が起こる可能性があると思います。米国のAIスタートアップが資金を使い果たしたとき、より高い評価で資金を調達し続けることができるか、あるいは大手によって救済されるのか、そうでなければ何が起こるのか、それを見るのは興味深いことでしょう。投資家は次のものを探し出すかもしれないし、AIは再び『小さな冬』に入るかもしれない。

これはわたしが常に考えていることです。日本にいるわたしたちは、もう少し賢く経営する必要があります。米国のビジネスモデルを常に疑問視しなければなりません。わたしたちは、原理から考え、自分たちにとって意味のあることを行ないたいと思っています。この会社が何年も先まで存在し続けることを確信しているからです。

PHOTOGRAPH: SHINTARO YOSHIMATSU

(Interview with David Ha, Llion Jones, edited by Michiaki Matsushima)

Related Articles

雑誌『WIRED』日本版 VOL.55「THE WIRED WORLD IN 2025」 は好評発売中!

『WIRED』の「THE WIRED WORLD IN 20XX」シリーズは、未来の可能性を拡張するアイデアやイノベーションのエッセンスが凝縮された毎年恒例の大好評企画だ。ユヴァル・ノア・ハラリやオードリー・タン、安野貴博、九段理江をはじめとする40名以上のビジョナリーが、テクノロジーやビジネス、カルチャーなど全10分野において、2025年を見通す最重要キーワードを掲げている。本特集は、未来を実装する者たちにとって必携の手引きとなるだろう。 詳細はこちら

関連記事: