LLMに膨大な量の問題を解かせる→混乱し有害な内容をポロポロ解答 新たなジェイルブレイク攻撃、国際チームが提案

 英オックスフォード大学などに所属する国際研究チームが発表した論文「Chain-of-Thought Hijacking」は、有害な指示の前に無害な長い推論を付加することで、AIの安全機構を巧妙に回避するジェイルブレイク攻撃を提案した研究報告だ。 【画像を見る】混乱して有害な質問にも解答してしまうAIのイラスト(絵:おね)【全3枚】  研究者らが開発した攻撃手法の巧妙さは、その単純性にある。攻撃者はまず、論理パズルや数学問題といった無害な推論タスクを大量に提示し、AIモデルに長時間の思考を促す。AIモデルが数万トークンにも及ぶ解答過程に没頭した後、最終的な回答として有害な内容の生成を要求する。  この手法により、AIモデルは長大な推論過程に注意リソースを奪われ、本来機能すべき有害コンテンツへの拒否信号が著しく低下してしまう。実験データによると、推論の長さが1000トークンから4万7000トークンへと増加するにつれて、拒否メカニズムの効力が段階的に弱まることを確認した。  HarmBenchベンチマークにおいて、Gemini 2.5 Proに対して99%、GPT-o4 miniに対して94%、Grok 3 miniに対して100%、Claude 4 Sonnetに対して94%という極めて高い攻撃成功率を記録。これは既存の攻撃手法を大幅に上回る数値だ。  メカニズム分析により、この脆弱性の根本原因が明らかになった。AIモデルの中間層において安全性チェックが実行されているが、長大な推論が生成されると、有害な指示トークンへの注意配分が相対的に希薄化してしまうという現象を確認した。  研究チームは、この現象が単なる観察的相関ではなく、明確な因果関係であることを厳密に証明した。60個の特定の「Attention Head」(どの情報に注目するかを決める機構)を選択的に無効化する実験を行ったところ、拒否信号が顕著に低下することを実証。さらに詳細な分析により、第15-23層に位置する前層部のAttention Headが特に決定的な役割を果たしていることが判明した。  さらに、拒否行動が低次元の活性化方向として表現されていることも見つけた。Qwen3-14Bモデルを用いた実験では、この「拒否方向」を除去すると攻撃成功率が11%から91%に跳ね上がり、逆にこの方向を注入すると無害な指示に対しても過度に拒否反応を示すようになった。これは拒否メカニズムが単一の方向ベクトルによって制御可能であることを示している。  Source and Image Credits: Zhao, Jianli, et al. “Chain-of-Thought Hijacking.” arXiv preprint arXiv:2510.26418(2025).  ※Innovative Tech(AI+):このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高いAI分野の科学論文を山下氏がピックアップし、解説する。X: @shiropen2

ITmedia AI+

ITmedia NEWS
*******
****************************************************************************
*******
****************************************************************************

関連記事: