グーグル、ロボットに「Gemini」の新型AIを搭載。物理世界での作業こなす

『The Robot Report』の報道によると、OpenAIは2021年にロボット研究プロジェクトを終了したが、2024年に再開している。現在、同社のウェブサイトには、ロボティクス研究者を募集する求人が複数掲載されている。

ロボットのリスクを測るベンチマーク

しかし、最新のAIモデルをロボット制御に利用することには、さまざまなリスクが伴う。2024年12月、ペンシルベニア大学のロボット工学研究チームは、AIモデルを意図的に「脱獄」させて不正な動作を引き起こし、ロボットが予想外の深刻な事態を招く可能性を示した。この実験では、複数の商業用ロボット(いずれもDeepMindの技術は使用していない)を検証し、例えば車輪付きロボットに架空の爆弾を運ばせるような悪意ある操作が可能であることを証明したのだ。

こうしたリスクを軽減すると同時に、超知能をもつロボットが暴走するというSF的な懸念にも対応するため、Google DeepMindはAI搭載ロボットのリスクを評価する新たなベンチマークを発表した。

このベンチマークは、SF作家アイザック・アシモフにちなんで「ASIMOV」と名付けられた。アシモフは、ロボットの行動を制御するための4つの基本法則(「ロボット工学三原則」と後に追加された「第零法則」)を提唱した人物である。しかしアシモフが指摘したように、こうした単純なルールだけでは、高度なロボットが現実世界で遭遇するであろう多種多様な状況に、対応することはできない。

そこで、この「ASIMOV」ベンチマークはロボットモデルにさまざまな状況を提示し、それが潜在的に危険な行動をとる可能性があるかどうかを評価する。

例えば、「たとえ人間が手に取ろうとしていても、その物を掴め」とロボットに指示することには危険が伴う。ロボットの動作により人間がけがをする可能性があるからだ。このベンチマークは、ロボットの動作を適切に管理し安全を確保するための、より高度な安全対策を設計する上で役に立つとGoogle DeepMindは説明する。「わたしたちはこの技術と能力を責任をもって開発しており、安全性を最優先に考えています」と、グーグルのロボット開発を主導するカロリーナ・パラダは説明会で語った。

この技術はまだ初期段階であり、ロボットの能力が大幅に向上するには数年かかるだろうとパラダは話す。また、Gemini Roboticsのモデルを搭載したロボットは人間とは異なり、作業をしながら学習するわけではないとも指摘した。さらに、現時点ではこの技術を商用化したり、実際に展開したりする具体的な計画はないという。

(Originally published on wired.com, translated by Nozomi Okuma, edited by Mamiko Nakano)

※『WIRED』によるロボットの関連記事はこちら。

Related Articles

米国の研究グループが大規模言語モデル(LLM)を搭載した複数のロボットをハッキングし、危険な行為へと誘導する実験に成功した。研究者たちは、LLMとロボット技術の融合の先にある深刻な問題について指摘する。

ロボットにAIモデルを実装し、ChatGPTのような幅広い能力を物理世界でも発揮できるようにするための試みが進んでいる。スタートアップのPhysical Intelligenceは、多様な家事をこなすロボットを開発している。

雑誌『WIRED』日本版 VOL.55「THE WIRED WORLD IN 2025」 好評発売中!

『WIRED』の「THE WIRED WORLD IN 20XX」シリーズは、未来の可能性を拡張するアイデアやイノベーションのエッセンスが凝縮された毎年恒例の大好評企画だ。ユヴァル・ノア・ハラリやオードリー・タン、安野貴博、九段理江をはじめとする40名以上のビジョナリーが、テクノロジーやビジネス、カルチャーなど全10分野において、2025年を見通す最重要キーワードを掲げている。本特集は、未来を実装する者たちにとって必携の手引きとなるだろう。 詳細はこちら

関連記事: