突然注目度アップ グーグルの「TPU」とはなにか
11月末になって、急にGoogleがAIで脚光を浴びるようになった印象が強い。
1つの要因は、Geminiの最新版である「Gemini 3」が公開されたことだろう。
同時に、Google独自のAIプロセッサーである「TPU」が急に注目されたのも大きいだろう。
ここに来て、「GoogleがOpenAIよりも有利」「NVIDIA独占の対抗馬」という声も聞かれるようになってきた。
だが筆者の印象で言えば、11月になって急になにかが変わった、という話でもないように思う。
そもそもGoogleはAI開発のトップグループにいるし、強みも弱みもあり、OpenAIとは違う立ち位置にいる。
今回は、それがどういうことかを改めて解説してみたい。
GoogleがAIで勝つのでは……という話が広がったのは、「MetaがGoogleのTPUを自社データセンターで導入を検討する」というニュースが出てきたからだろう。Metaは正式な発表をしてない点に留意が必要だが、米The Informationの報道によれば、2027年からMetaのデータセンターにGoogleのTPUを大規模に導入する、としている。
AI向けデータセンター用の半導体としては、現状NVIDIAが圧倒的に強い。そのことへの対抗軸を株式市場が探していて、MetaのニュースがあったのでTPUに注目が集まった……という部分はあるだろう。
そもそもTPUとはなにか? TPUはTensor Processing Unitの略。簡単に言ってしまえば、AIの処理に必要となる行列演算を、高速化することを目的に作られたプロセッサーということになる。
GPUも行列演算が得意だが、元々はグラフィック用だったGPUとは異なり、グラフィック表示に必要な機能は持っていない。また、ソフト開発フレームワークとしては、GoogleのTensorFlowを使うことが基本だ。
Googleが初代TPUを発表したのは2013年のこと。今年発表した最新モデル「Ironwood」で第7世代となる。以下が、そのチップの写真だ。
TPUがどのようなものでどこに差別化点があるのかについては、今年4月、Google AI部門であるDeepMindのチーフサイエンティストのジェフ・ディーン氏への単独インタビューで詳しく解説している。そちらも併読いただきたい。
Googleはいわゆる生成AIが話題になる以前より、さまざまなAI処理の学習・推論効率化のためのTPUを開発し続けてきた。
特にGoogleが重視したのは「消費電力単位での能力(Watt Performance)」だ。第7世代は2018年モデルから3,600倍以上の性能を持つが、同時に、初代TPUに比べ、消費電力単位の能力は29倍になった。性能が劇的に上がったのに、消費電力はそこまで大きくなっていないのだ。
前掲の記事から、ジェフ・ディーン氏のコメントを引用しよう。
ディーン氏(以下敬称略):過去10年近くにわたってTPU開発においては、可能な限り電力効率・エネルギー効率の高いプロセッサーを作りたい……という点が根底にあります。最初のTPU v1は、現在のCPUやGPUよりも30倍から80倍も電力効率が良かったんです。さらにエネルギー効率を高めるために、多数の機能を追加してきました。
一つの転換点は、液体冷却をTPU v3(2018年)で導入したことです。表面に届く小さな水のパイプがあり、空気冷却ではなく、この種の液体冷却でより高密度の計算を実行できるようになりました。
ここからのAIインフラで最も大きな課題は「電力の調達」だ。半導体は作れても、それを稼働するデータセンターを動かす電力がなければ厳しい。電力供給が可能な土地を確保することも含め、各企業の戦略に属する部分である。
液冷の導入は今だと珍しいものではなく、特殊なオイルなどで冷やす例もある。重要なのは、Googleが初期からのアプローチとして「性能と消費電力のバランス」を重視していた、ということだ。
同時に、TPUの利点はGeminiの開発にも生きている。
Gemini 3は非常に賢く、コーディング性能の評判も良い。そして、Gemini 3をベースとした画像生成AIである「Nano Banana Pro」のクオリティについても、同様に評判が良い。
OpenAIを抜いたかどうか、筆者は断言できる立場にない。だが、賢さ・機能の面で飛び抜けた変化があったように感じられるくらい、進化の度合いがわかりやすいのは間違いない。
Geminiの開発について、ディーン氏は4月のインタビューでこんな話をしていた。
ディーン:重要なのは、経路を構成するインフラです。
これは2016年以来、社内で開発してきたもので、Geminiの大規模モデルのトレーニングや、より大きな構成でのGeminiの推論の多くを実行するための鍵となっています。
オープンソースのソフトウェアシステムであるJax(GPUやTPUなどのアクセラレータを活用し、大規模な計算や並列処理を行なえるもの)を活用していますが、経路システムとの統合により、1つのJaxプロセスで複数のチップを統合的に処理できます。
どの処理も複数のチップで行なわれていますが、Jaxプロセスからは、1つのTPUであろうが1,000のTPUであろうが、1万個のチップであろうが同じように扱えます。ソフトウェア開発者にとって本当に素晴らしいプログラミングモデルです。
これはDeepMindの内部研究にとって非常に強力な要素でした。そして今では、Google Cloudを介してクラウドTPUを使うお客様にも利用できるようにしています。
要は、TPUを必要な処理に合わせて数を柔軟にコントロールして使えるようにしていったことで、Geminiの学習を効率的に進められている、ということである。
TPUという半導体があるから強いのではなく、TPUを使うためのフレームワークを中心としたソフトウェアや、各種処理を効率化する仕組みをGoogle自身が整備してきたことが、TPUの価値拡大につながっていたわけだ。
これは、NVIDIAのGPUが、GPUを活用するソフトを作るために必要な言語である「CUDA」で差別化していることに似ている。今でこそCUDAはNVIDIAの大きな武器だが、最初に発表された2007年頃にはそこまで注目される存在ではなかった。地道に開発を続け、現在のAI投資全盛期に入って花開いた部分はある。
1点誤解がないように説明しておきたいが、GoogleはNVIDIAと敵対しようとしているわけではない。TPUとNVIDIAのGPUでは得意な部分が異なるので、彼ら自身も、そしてクラウドサービスを提供する顧客にも、NVIDIAのGPUを提供している。
以下は今年4月の「Google Cloud NEXT 25」で撮影したものだ。書かれているサインは、NVIDIAのジェンスン・フアンCEOのもの。NVIDIAのGPUを使ったサーバーとTPUを使ったサーバーの両方を提供し、価値を高めているからこうして展示されているわけだ。
Googleが強いとされる理由はなにか? それは結局のところ、総合力にある。
TPUのようなプロセッサーを作り、その活用基盤を作り、AIも用途別に複数作る。
開発したAIは検索にも導入し、さらに、その検索自体にも、今後は利用者の検索履歴やAIとの対話を活用するようになる。ネット検索という強みを持ち、そこから多数のツールを連携しつつ、基盤となるAIでも強力なものを提供する……。これだけの総合力を持つ企業は他にない。
ウェブブラウザーであるChrome事業の売却も避けることができて、その強みをさらに活かせる。
すでに収益性の高いビジネスを持ちつつ、今後の戦いを進められるのは他のAI企業との違いとも言える。
とはいえ「ChatGPT」ブランドは圧倒的に強く、GoogleのGeminiよりもずっと幅広く浸透している。GoogleはGeminiやAI検索の「AIモード」の広告投資を強化しており、ChatGPTブランドの攻略に注力しているには間違いない。
OpenAIのような企業としては、これまでのルールを書き換えて戦うしかない。ChatGPTの知名度ももちろんだが、今後登場するコンシューマ向けハードウェアや、企業向けのアライアンスなどで他社との競合優位性を生み出すしかないだろう。
ルール書き換えによる勝利の一手は、もちろん、「AGIをどこよりも先に開発する」ことにある。ゲームっぽく言ってしまえば「Civilizationの科学勝利」みたいなもので、そこまでは必死に投資して最速ゴールを目指すことになる。
その中で、Google型が勝つのか、それともOpenAI型が勝つのか。Anthropicのように「コーディング向け重視」で投資する、というパターンもあるだろう。
AI投資はバブル化していると言われるが、結局は「どのパターンで市場を席巻して勝利とするのか」という、勝利条件設定の競争でもあるのだ。