AIに何度も自問自答させてより深く考えさせる「CoRT(再帰的思考の連鎖)」とは?

ソフトウェア

オーストラリアのソフトウェアエンジニアであるフィリップ・バクレスキ氏(Phiality)が、AIに何度も自問自答させることでより深く考えさせる手法「Chain of Recursive Thoughts(CoRT:再帰的思考の連鎖)」についてGitHubで発表しました。

GitHub - PhialsBasement/Chain-of-Recursive-Thoughts: I made my AI think harder by making it argue with itself repeatedly. It works stupidly well.

https://github.com/PhialsBasement/Chain-of-Recursive-Thoughts

CoRTはAIモデルが自身の応答について再帰的に考え、代替案を生成し、より最適なものを選択できるようにする手法です。バクレスキ氏はCoRTについて、「これはAIに、自分自身を疑い、何度も何度も試行する能力を与えるようなものです」と語っています。 CoRTの仕組みは以下の通り。AIが自分の生成した結果について再検討し、代替案を生成させ、より洗練された回答を残していくというステップを繰り返すようになっています。 1:AIが最初の応答を生成する。 2:AIが必要な「思考ラウンド」の数を決定する。 3:各ラウンドにおいて、「3つの代替となる応答を生成する」→「すべての応答を評価する」→「最良のものを選ぶ」というステップを行う。 4:最終的に残った応答が、「AIバトルロワイヤル」の勝者となる。

実際にバクレスキ氏は、AI開発企業のMistral AIが開発したモデル「Mistral 3.1 24B」を利用して、CoRTありの場合となしの場合で「三目並べ(○×ゲーム)」を作らせた結果を比較しました。 CoRTなしの場合で作らせた○×ゲームの見た目はこんな感じ。

一方、CoRTありの場合だとこんな感じ。明らかにCoRTありの方がプログラミングの精度が向上していることがわかります。

CoRTはソーシャルニュースサイトのHacker Newsでも大きな話題となっています。

Chain of Recursive Thoughts: Make AI think harder by making it argue with itself | Hacker News

https://news.ycombinator.com/item?id=43835445

実際にCoRTのようなアイデアを試してみたことがあるというユーザーも登場し、「1つ目のAIモデルにある問題の答えとその理由を考えさせ、その問題やその技術分野についての知識がない人に向けたレポートを作らせる。その後、問題についての知識がない2つ目のAIモデルにレポートを添削してもらい、1つ目のAIモデルに添削内容に基づいて書き直させ、2つ目のAIモデルが納得するまで繰り返している」というコメントや、「AIグループチャット内で3人のキャラクターを作り出し、自分も含めて満足いくまで議論している」といった体験談が寄せられていました。

・関連記事 OpenAIが推論能力を大幅に強化した「o3」シリーズを発表、 推論の中でOpenAIの安全ポリシーについて「再考」する仕組みを導入 - GIGAZINE

OpenAIが複雑な推論能力をもつAIモデル「OpenAI o1」と「OpenAI o1-mini」を発表、プログラミングや数学で高い能力を発揮 - GIGAZINE

OpenAIが新モデル「o1-preview」の思考内容を出力させようとしたユーザーに警告 - GIGAZINE

「推論モデルがユーザーにバレないように不正する現象」の検出手法をOpenAIが開発 - GIGAZINE

OpenAIのo3はAGIではないかという問いから生まれた概念「ギザギザのAGI」とは? - GIGAZINE

サイバーエージェントが「DeepSeek-R1」の派生モデルをベースに日本語で追加学習したモデルを公開 - GIGAZINE

DeepSeekはどのようにしてOpenAIの3%のコストでo1を超えたのか? - GIGAZINE

AIは「思考している」のか、それとも「思考しているよう見せかけている」だけなのか? - GIGAZINE

人間とAIの「思考」に大きな違いがあることが研究で判明、AIは推論が苦手な可能性 - GIGAZINE

関連記事: