「3つのリンゴがあり、2つ食べて、さらに5つもらいました。今いくつありますか?」
この問題、人間なら「3-2=1、1+5=6」と段階的に考えますよね。
AIも同じように「考える過程」を言語化させると、正解率が劇的に向上します。この技術がChain of Thought(CoT:思考連鎖)です。
この記事では、プロンプトエンジニアリングの重要技術「Chain of Thought」について解説します。
Chain of Thoughtとは?
一言で言うと
Chain of Thoughtは、AIに「答え」だけでなく「思考の過程」を出力させることで、推論能力を引き出すプロンプト技術です。
2022年にGoogle Researchが発表した論文で、大きな注目を集めました。
なぜ考える過程を出力させると、正解率が上がるんですか?
人間も難しい問題を解くとき、頭の中で整理しながら考えますよね。LLMも同様で、中間ステップを「言葉」として出力させることで、複雑な問題を分解して処理できるようになるんです。
従来のプロンプトとの違い
従来のプロンプト(直接回答)
質問:太郎は5個のリンゴを持っています。2個食べて、母から3個もらいました。何個ありますか?
回答:6個
Chain of Thoughtプロンプト
質問:太郎は5個のリンゴを持っています。2個食べて、母から3個もらいました。何個ありますか?
回答:まず、最初に5個のリンゴがあります。
2個食べたので、5 - 2 = 3個になります。
母から3個もらったので、3 + 3 = 6個になります。
答えは6個です。
思考過程を出力させることで、複雑な問題でも段階的に正解へ導けます。
Chain of Thoughtの仕組み
なぜ効果があるのか
LLMは「次に来るトークンを予測する」仕組みで動いています。
直接回答を求めると、複雑な計算を一度にしなければなりません。しかし、中間ステップを出力させると、各ステップの結果が「文脈」として残り、次のステップの推論を助けます。
直接回答の場合:問題 → 一気に回答を生成
CoTの場合:問題 → ステップ1 → ステップ2 → ステップ3 → 最終回答
(各ステップの結果が文脈として残り、次のステップの推論を補助)
効果が出るタスク
CoTは特に以下のタスクで効果を発揮します。
- 算術推論:複数ステップの計算問題
- 常識推論:日常的な状況についての推論
- 記号推論:論理パズル、パターン認識
- コード生成:複雑なアルゴリズムの実装
- 計画立案:複数のステップが必要なタスク
単純なタスク(事実の検索、簡単な分類など)では、CoTは効果が薄いか、むしろ精度が下がることもあります。問題の複雑さに応じて使い分けが重要です。
Chain of Thoughtの種類
1. Few-Shot CoT
「例」を示して、思考過程を学習させる方法です。
【プロンプト例】
質問:カフェで350円のコーヒーと280円のケーキを買いました。1000円払ったらお釣りはいくら?
回答:まず、コーヒーとケーキの合計を計算します。
350 + 280 = 630円です。
次に、お釣りを計算します。
1000 - 630 = 370円です。
答えは370円です。
質問:映画館で大人1800円、子供1000円のチケットを買いました。大人2人と子供1人で、5000円払うとお釣りはいくら?
回答:
このように「例」を見せると、AIは同じパターンで思考過程を出力します。
2. Zero-Shot CoT
例を示さず、「考えて」と指示するだけの方法です。
質問:[問題文]
一歩ずつ考えてください。(Let's think step by step.)
驚くべきことに、「Let's think step by step」と一言添えるだけで、正答率が大幅に向上することが研究で示されています。
| 方式 | 特徴 | 精度 |
|---|---|---|
| 直接回答 | 答えだけを出力 | 低〜中 |
| Zero-Shot CoT | 「考えて」と指示 | 中〜高 |
| Few-Shot CoT | 例を示す | 高 |
3. Self-Consistency(自己一貫性)
同じ問題を複数回解かせ、最も多い回答を採用する方法です。
- 1回目の推論 → 答え:A
- 2回目の推論 → 答え:B
- 3回目の推論 → 答え:A
- 4回目の推論 → 答え:A
- 5回目の推論 → 答え:B
最終回答:A(多数決)
Temperatureを高めに設定し、異なる推論パスを生成させます。
4. Tree of Thought(思考の木)
複数の推論パスを「木構造」で探索する発展形です。
[問題] から複数のパスに分岐:
- パスA → A1、A2に分岐 → 各々評価
- パスB → B1 → 評価
- パスC → C1 → 評価
→ 最良のパスを選択
各ステップで複数の選択肢を検討し、最も有望なパスを選択します。
実践的な使い方
効果的なプロンプト例
数学の問題
以下の問題を、段階的に考えて解いてください。各ステップで計算過程を示してください。
問題:[問題文]
論理的な判断
以下の状況について、step by stepで分析してください。
まず前提条件を整理し、次に各選択肢のメリット・デメリットを検討し、最後に結論を出してください。
状況:[状況の説明]
コード生成
以下の機能を実装するコードを書いてください。
まず必要な処理を列挙し、各処理の実装方法を検討してから、コードを書いてください。
要件:[要件の説明]
日本語での表現例
- 「一歩ずつ考えてください」
- 「段階的に推論してください」
- 「思考過程を示してください」
- 「順を追って説明してください」
- 「まず〜を考え、次に〜を検討してください」
2025年の最新動向
推論モデルの登場
2024年後半から2025年にかけて、「推論モデル」と呼ばれる新しいカテゴリのLLMが登場しました。
これらのモデルは、明示的にCoTを指示しなくても、内部で「考える」プロセスを実行します。
CoTの効果は低下している?
2025年の研究では、興味深い結果が報告されています。
| モデルタイプ | CoTによる改善 | 処理時間増加 |
|---|---|---|
| 旧世代モデル | 大きい(10%以上) | 中程度 |
| 推論モデル | わずか | 20-80%増 |
推論モデルではCoTの効果が薄いんですか?
推論モデルは最初から「考える」ように訓練されているので、明示的なCoT指示の効果が小さくなっています。ただし、旧世代モデルや小規模モデルでは、依然としてCoTは有効な手法です。
マルチモーダルCoT
2024年以降、テキストだけでなく画像を含む問題でもCoTが活用されています。
【マルチモーダルCoT】
- 画像から情報を抽出(視覚的分析)
- テキスト情報と統合(推論生成)
- 段階的に回答を導出(回答推論)
CoTを使うべきか?判断基準
使うべき場面
- 複数ステップの計算や論理が必要
- 複雑な判断や分析が求められる
- 推論過程を確認したい
- 非推論モデルを使用している
使わない方がいい場面
- 単純な事実検索(「日本の首都は?」など)
- シンプルな分類タスク
- 推論モデル(o1など)を使用している
- レスポンス速度が重要
CoTは「魔法の呪文」ではありません。タスクの複雑さ、使用モデル、速度要件などを考慮して、使い分けることが重要です。
まとめ:AIに「考えさせる」技術
Chain of Thoughtは、AIの推論能力を引き出す強力なプロンプト技術です。
Chain of Thoughtの重要ポイント:
- AIに「思考過程」を出力させる技術
- 複雑な推論タスクで精度が大幅向上
- 「Let's think step by step」だけでも効果あり
- Few-Shot、Zero-Shot、Self-Consistencyなどのバリエーション
- 推論モデルでは効果が薄れる傾向
- タスクの複雑さに応じて使い分けが重要
「考えて」と伝えるだけでAIが賢くなる——CoTは、プロンプトエンジニアリングの基本技術として、今後も重要であり続けるでしょう。