AI開発が「お金のパワーゲーム」になる理由
AIの開発にひっぱりだこの、NVIDIAのGPU。個人も企業も市場にあるだけのGPUを買いあさり、ゲーム用のグラフィックボードは高額転売の餌食になっています。
ビッグテックは買い集めた半導体を一箇所に集め、原子力発電所を建てるくらいの勢いで大電力を消費するデータセンター(DC)を作ろうとしています。テック企業たちは、なぜそこまでAI開発に大量の資金を投じていくのでしょうか。
アクセル全開で移り変わる生成AIや半導体ビジネスについて、半導体の専門家、安生健一朗(あんじょう けんいちろう) さんに、今回もじっくりと質問してみました。
過去の記事はこちら
AIデータセンターは従来のデータセンターとは役割が異なる
──生成AIを取り巻くニュースのなかで、MetaやXなどのテック企業が大量の資金を投入して独自のDCを建設する、という話題が目立ちます。いま保有しているであろうDCとは別に、新たに土地を確保してまで新設するのはなぜですか?
安生:いま彼らが建設を進めているのは、通常のDCとは異なる「AI向けデータセンター」です。今後、このAI向けDCのビジネスの需要が大きく伸びていくと考えられるからですね。
ビッグテックたちは、すでにある程度の規模のDCは持っています。ただ、従来のDCは、Webサービスやデータベース、ストレージサーバーなどの用途向け、つまるところCPUやストレージのリソースを貸し出すための拠点です。
対して、AI向けDCはCPUやストレージを貸し出すのではなく、AIの学習に使われるDCです。そのため、GPUの処理能力を貸し出すという要件に特化して作られています。
──AI向けDCと従来のDCは何が異なるのでしょうか?
安生:おもに使われるプロセッサがCPUかGPUといった違いがあります。そして、超高速なネットワークが必要かどうかという点も挙げられます。
従来のDCはCPUとストレージをイーサネットなどで繋ぐ、疎結合の状態で良かったのですが、AI向けDCは大量のデータを高速にやりとりする必要があるため、GPU間を超高速なネットワークでつなぐ密結合型、大規模並列コンピュータでなくてはなりません。
同時に電力の消費や発熱量も、格段に大きくなります。ストレージもHDDではなく、速度を重視したNVMe接続のSSDが中心になるでしょう。
──従来のDCよりも圧倒的にハイスペックなものが要求されるから、新たな建設ラッシュが起きている。
安生: そういうことだと思います。AI向けDCの土地を選ぶ条件は厳しく、面積あたりの計算容量をできるだけ高めるため、土地ができるだけ安く、災害が起きにくく、冷却用の水資源が豊富にあるところ。そしてカーボンニュートラルにも配慮しつつ電力もできるだけ安く調達したいから、再生エネルギーなどが利用できるところが選ばれます。
従来のDCは都市圏に作られるケースもありますが、AI向けDCは北欧など北の寒冷地に作られる傾向が多いと聞きますね。
お金のチカラで一歩先に行こうと攻めるビッグテック
──大金を投じてDCを新設するのは、今後、さらに大規模なAIモデルを登場させるためですか?
安生: 現実問題として、そうだと思います。これはAIの業界で言われている「スケーリング則」ですね。
スケーリング則とは、「AIモデルのパラメータ数」「学習データ量」「学習に使う計算量(コンピューターの処理能力)」がバランスよく大規模化するほど、AIの性能が拡大するという法則です。その効果は線形じゃなくてべき乗、指数的に上昇するとされていて、AIの性能で先んじるためには、ものすごく大量の計算リソースが必要になるんです。
──次世代AIを開発するには、計算力勝負になってくる。だから、ビッグテックは大規模なAI向けDCを用意しようとしていると。
安生: その通りです。以前、「AIの性能向上は力技だ」と申し上げたのは、Microsoft、Amazon、Google、テスラ/Xしかり、大規模な事業者が今こぞってお金を突っ込んで、この競争に勝とうとしているんですね。大規模なテック企業たちが、いま覇権争いをしているっていうことの、本当にまだまだ序盤だと思うんです。
3カ月先、半年先は新しい世界になるのが今のAIのスピード感なので、スケール勝負で負けたらユーザーが自社のAIを使わなくなり、開発レースから脱落してしまいます。「月20ドル払う価値があるな」、と多くの人に感じさせる新たな機能を、常に提供し続けなきゃいけない競争なんですよ。
──とんでもなく厳しいレースですね。
安生:まさしくパワーゲーム(純粋な力勝負)です。ビッグテックはすでに、僕たちには想像がつかないぐらいのお金を投資して、AI向けDCをフル回転させているわけですからね。
──マイクロソフトがDCのリース契約を終了し、DC用の土地買収から撤退したというニュースがありました。マイクロソフトがAI事業から身を引くという話になるとは断言できませんが、すでにレースから脱落している企業が現れているのでしょうか。
安生: あると思います。このニュースに関してはリースではなく、自前のサーバーでやりきる方針に変えた可能性も考えられますが、AIデータセンター需要に対する過剰投資に対してアクションを取ったのかもしれません。
マイクロソフトとしてはDCサービスのAzureに加えてCopilotを戦略的に進めていますので、他社AIサービスとのバランスには配慮している可能性もあります。これはあくまで推測の話ですけど。
発熱と性能のバランスをとるためのカスタムチップ
──OpenAIがDC向けに、独自の半導体を開発するという話があります。カスタムチップを作るというのは生成AI事業においてトレンドとなるのでしょうか。
安生: はい、トレンドだと思いますね。
AI向けDCビジネスは、大金をかけ、すさまじい電力を消費し、ものすごい発熱を処理する環境で、いかに早く計算できるかという競争になります。その状況のなかで、なぜ各社がさらに大金を投じてカスタムチップの開発に取り組むのかというと、発熱と性能のバランスを取りたいんだと思うんですよね。
GPUをAIに使うというのは、あくまでも妥協案なんですよ。GPUは本来グラフィックスの処理に適したアーキテクチャでしたが、たまたまAIの開発にも使えたために、ここまで広まってきました。
これは半導体というか回路の原理ですが、データを処理するためのアルゴリズム(計算処理)を実現するための手段として、ソフトウェアとハードウェアの2パターンあります。このとき、ソフトウェアで実現する場合は自由度が高い一方、ソフトを理解するための回路が必要になり、電力の効率が悪いんですよ。電力効率と演算効率を共に高めるなら、計算処理そのものをハードに焼き付けてしまうのが一番です。ただし、この手法はあとで計算処理を変更することはできません。
CPUは複雑なソフトウェアを動かすことができるため、さまざまな処理をこなせる柔軟性の高さを特徴とします。GPUはCPUほどではないですが、ソフトウェアによる柔軟性のメリット、AIに特化した演算器を一部持つためハードウェア的なメリットも得ることができます。
自分たちが使いやすいチップを自社開発する
安生: たとえば、インテルのCPUのグラフィックスエンジン「Arc」には、AV1、H.265といった動画を再生するためのハードウェアエンコーダーが載っています。これらは計算処理を半導体に焼き付けています。多用する計算処理であれば、ソフトウェアエンコーダーよりハードウェアエンコーダーのほうが性能もいいし、消費電力も低い。だから規格化されて変更の可能性のないものはハードに焼き付ければいい、という考え方ですね。
実際に、GoogleはAI向けのカスタムチップとしてTensor Processing Unit(TPU)を設計しました。AI処理で多用する演算を処理するハードウェアを内包させることで、電力効率を高めています。
OpenAIも、自分たちのAIモデル開発のために求めるチップの仕様を把握している。自分たちのソフト開発のためだけに作るわけだから、「自分たちのAI開発はこういう演算ハードウェアがあったら絶対早くなる」とよく知ってる。カスタムチップの設計は思い切った選択肢ですが、そんなチャレンジができるぐらいの投資を得たわけです。
また、別の話になりますが、AI向けGPU市場シェアの大半を占めるのはNVIDIAですから、AI向けGPUはNVIDIAからしか当然買えません。つまり、市場原理的には値段が下がる要因はない状況です。となると、おそらくNVIDIAはかなりのマージンを取っているでしょう。
それを自前の半導体に置き換えることによって、短期的には負担は大きいかもしれないけど、中長期戦略的には圧倒的にコストが安くなると考えているのではないか、と感じますね。
サーバー向けのチップ開発の知見は横展開できるか
──生成AIに取り組む企業がカスタムチップ開発に勤しむなか、ここで得た知見はスマートフォンなどの他のデバイスでも活かされるようになるでしょうか。
安生: サーバーでもPCでもスマホでも使えるような、スケーラビリティを持たせたチップ開発がありえるのかという話だと、おそらくチャレンジする企業は出てくると思います。たとえば、インテルはDC向けのチップも、デスクトップPC向けのチップも、ノートPC向けのチップも作っています。
ただ、理屈として「そういうことってやれたらいいよね」と感じますが、作り手側の立場で言うと、スマートフォン向けのチップはものすごい低消費電力性能が求められます。消費電力でいったら、ミリワットのレベルで電力をいかに減らすか、という最適化を行なっています。対してDC向けのチップは、何100ワットというパワーを必要とします。必要とされる仕様の次元が違いすぎるんですよね。
となると、半導体の実験方法というかコンセプトが設計段階から違うんですよ。同じアーキテクチャを展開して、命令セットを一緒にしてソフトを使い回そうね、みたいな仕組みづくりは多分できると思うんですけど、スケールすることを前提に作るというのは、なかなか難しいですね。
10年後に、いまの時代を振り返ってみたい
──ロマンチックなことを言わせてもらうと、IBMやHPといった大手テクノロジー企業があるなか、ガレージメーカーとして生まれたAppleがいま成功しているところに、ナラティブがあると感じています。同様の文脈で、現在のOpenAIや他の生成AI企業をいつか語れる日がくる可能性もあるんじゃないか、という面白さを感じています。
安生: そうですね。OpenAIだって、もともとは非営利法人に近い立ち位置でスタートして、イーロン・マスクも2018年まではそこに居たんですよね。そこから徐々に、世界的にユーザーや資金を獲得していきました。OpenAIを取り巻く流れが、ここ数年で起きたことというのはすごいストーリーです。
たとえば10年後に、2025年前後の時代はどうだったんだと振り返ってみるのは、面白そうですね。
安生 健一朗 (工学博士、株式会社 K-kaleido 代表取締役)
NECにて研究者として半導体回路からプロセッサーアーキテクチャーまで広い研究分野に9年間従事。その後、インテル株式会社にて17年間にわたり、主にパソコン製品の技術責任者として、日本におけるPC向け製品・技術戦略をリードしつつ、スポークスパーソンとして、製品発表やマーケティングイベントにて製品の魅力を解説。さらに、ゲーミング・クリエイター・AI PCというPCの新規マーケット活性化プログラムを推進。
現在はサイバーセキュリティ企業に従事する傍ら、2024年12月には株式会社K-kaleidoを起業し、技術コンサルティング事業やAI PC向けのアプリストアを中心としたビジネスを展開( https://k-kaleido.com )。