情報処理試験を勉強していると、「CoTって何の略?Zero-shotやFew-shotとどう違うの?」と混乱しがちです。ここでは、CoT(Chain-of-Thought)の正体を日常の例え話から技術的な背景まで一気に整理します。
対象試験と出題頻度
CoT(Chain-of-Thought)は、ITパスポート・基本情報技術者・応用情報技術者で出題される可能性があるテーマです。
プロンプトエンジニアリングの代表的な技法の一つとして、IPAシラバスVer.6.3で生成AI関連用語が追加されたことに伴い、Zero-shotやFew-shotとセットで出題されるケースが想定されます。
詳細をクリックして確認
ITパスポート
基本情報技術者
応用情報技術者
★★☆☆☆
ランクC(応用)余裕があれば覚える
用語の定義
CoT(Chain-of-Thought:思考の連鎖)とは、一言で言うと
「大規模言語モデル(LLM)に対し、最終回答だけでなく推論の中間ステップを段階的に出力させるプロンプト技法」
のことです。
イメージとしては、「算数の文章題で、途中式を書かせること」です。
たとえば小学校の算数で「答えだけでなく途中の式も書きなさい」と言われると、計算ミスに気付きやすくなり、正答率が上がります。
CoTはこれと同じ原理をAIに適用したもので、「ステップごとに考えて答えてください」と指示するだけで、回答精度が大幅に向上します。
📊 CoT(Chain-of-Thought)の基本情報
| 項目 | 内容 |
|---|---|
| 英語名 | Chain-of-Thought |
| 日本語名 | 思考の連鎖 |
| 分類 | プロンプトエンジニアリング技法 |
| 提唱 | Wei et al.(Google Research, 2022年) |
| 主な効果 | 算術・常識・記号推論タスクでの正答率向上 |
解説
大規模言語モデル(LLM)は膨大なテキストデータから学習しているため、単純な質問応答は得意です。
しかし「リンゴが5個あり、3個食べて2個もらったら何個?」のような多段階の推論が必要な問題では、いきなり答えだけを出させると誤答しやすいという弱点がありました。
2022年、Google Researchの研究チーム(Wei et al.)がこの課題を解決する手法として発表したのがCoTです。
論文名は「Chain-of-Thought Prompting Elicits Reasoning in Large Language Models」で、中間的な推論ステップを言語化させることでLLMの推論能力が飛躍的に向上することを実証しました。
仕組み:通常のプロンプトとの違い
通常のプロンプト(標準プロンプティング)では、AIは質問を受けて即座に最終回答を返します。
一方、CoTでは「ステップバイステップで考えてください」という指示を加えることで、AIが思考の中間過程を言語化しながら最終回答にたどり着きます。
標準プロンプティング vs CoTプロンプティング
❌ 標準プロンプティング
(誤答のリスクあり)
✅ CoTプロンプティング
①最初は5個
②3個食べたので 5−3=2個
③2個もらったので 2+2=4個
(過程が見えるため検証しやすい)
Zero-shot CoTとFew-shot CoT
CoTには大きく2つの使い方があります。
Zero-shot CoT:プロンプトに「Let’s think step by step(ステップごとに考えよう)」と一文を添えるだけの方法です。事前の例示が不要で手軽に使えます。2022年にKojima et al.が発表し、この一文を付け加えるだけでLLMの正答率が向上することを実証しました。
Few-shot CoT:「問題→推論過程→答え」のセットを数例プロンプトに含め、AIにパターンを模倣させる方法です。Wei et al.が最初に提案した元祖の手法であり、例示があるぶんZero-shot CoTよりも安定した精度を出しやすい特徴があります。
| 手法 | 特徴 | 使い分け |
|---|---|---|
| Zero-shot CoT | 例示なし。「ステップごとに考えて」と一文追加するだけ | 手軽に使いたいとき |
| Few-shot CoT | 推論過程つきの例を数個提示し、パターンを模倣させる | 高い精度が必要なとき |
関連技法との位置関係
CoTは、Zero-shotやFew-shotといったプロンプト技法の「拡張版」に位置づけられます。以下の図で全体の関係を整理します。
プロンプト技法の全体マップ
※ CoTは既存技法に「推論過程の段階出力」を加えた拡張手法
では、この用語が試験でどのように出題されるか見ていきましょう。
💡 CoTの核心を3行で
・LLMに推論の中間ステップを言語化させるプロンプト技法
・「ステップごとに考えて」と添えるだけで正答率が向上するZero-shot CoTが最も手軽
・Zero-shot / Few-shotの拡張であり、モデルのパラメータは変更しない
試験ではこう出る!
CoT(Chain-of-Thought)は、IPAシラバスVer.6.3(2024年10月適用)で生成AI関連用語が追加されたことに伴い、出題範囲に入った比較的新しいキーワードです。単体で名指しされた過去問は2025年1月時点では確認されていませんが、プロンプトエンジニアリングの下位概念としてZero-shot・Few-shotとの違いを問う形での出題が想定されます。
📊 関連する過去問の出題実績
| 試験回 | 出題内容 | CoTとの関連 |
|---|---|---|
| AP R6秋 午前 問71 |
基盤モデルを独自データで特化させる手法を選ぶ問題。選択肢にプロンプトエンジニアリングが含まれる。 | CoTはプロンプトエンジニアリングの一技法。「モデルを変更しない」側の選択肢として登場し得る。 |
| IP R7 問28 |
生成AIの説明として正しいものを選ぶ問題。 | 「プロンプトで与えられた指示に対して新しいコンテンツを生成する」が正解。CoTの前提知識として押さえておく。 |
📝 今後想定される出題パターン
パターン1:「3つの技法の説明を区別させる」
Zero-shot・Few-shot・CoTの説明文を並べ、CoTに該当するものを選ばせる形式。キーワードは「推論過程」「段階的に出力」「中間ステップ」。「例示を与える」はFew-shot、「例示なしで直接指示」はZero-shotの説明なので区別する。
パターン2:「プロンプトエンジニアリングの一技法として正しい組み合わせを選べ」
CoT・Zero-shot・Few-shotがプロンプトエンジニアリングに属し、ファインチューニングやアノテーションは属さない、という分類問題。
試験ではここまででOKです。Zero-shot CoTとFew-shot CoTの論文レベルの差異まで問われることはないので、深追いは不要です。
【確認テスト】理解度チェック
ここまでの内容を理解できたか、簡単なクイズで確認してみましょう。
Q. 生成AIへのプロンプト技法の一つであるCoT(Chain-of-Thought)の説明として、最も適切なものはどれでしょうか?
- A. LLMに対して推論の中間ステップを段階的に言語化させることで、複雑な問題の正答率を向上させるプロンプト手法。
- B. 具体的な入出力の例を数個提示してから本題を指示することで、LLMにタスクのパターンを模倣させるプロンプト手法。
- C. 事前学習済みのLLMに対して独自のデータセットで追加学習を行い、モデルのパラメータを調整して特定タスクに特化させる手法。
正解と解説を見る
正解:A
解説:
CoT(Chain-of-Thought)は、LLMに推論の中間過程を段階的に出力させることで、多段階の推論精度を高めるプロンプト技法です。「推論過程を言語化させる」という点がCoT固有の特徴であり、選択肢Aが正確に合致します。
選択肢BはFew-shot(フューショット)プロンプティングの説明です。Few-shotは入出力例の提示によってパターンを学ばせる手法であり、推論過程の段階出力を求めるものではありません。選択肢Cはファインチューニングの説明です。ファインチューニングはモデルのパラメータ自体を更新する手法であり、プロンプトの工夫だけで完結するCoTとは根本的に異なります。
よくある質問(FAQ)
Q. CoTはどのくらいの規模のLLMで効果がありますか?
Wei et al.(2022年)の論文では、パラメータ数が約100B(1,000億)以上の大規模モデルで顕著な効果が確認されました。小規模なモデルでは効果が薄いか、逆にノイズが増える場合があります。ただし、指示チューニング(Instruction Tuning)を施した小規模モデルでもCoTが機能するケースが報告されており、モデルの規模だけが絶対条件ではありません。
Q. CoTとReAct(Reasoning and Acting)はどう違いますか?
CoTは「推論過程を言語化して出力する」ことに特化した手法です。一方、ReActは推論(Reasoning)と外部ツールへの行動(Acting)を交互に繰り返す手法で、Web検索やデータベース参照といった外部アクションを組み合わせます。CoTが「頭の中で考える」技術なら、ReActは「考えて手を動かす」技術と整理できます。
Q. 実務ではCoTをどのような場面で活用しますか?
プログラミングのバグ原因の特定、法務文書の論点整理、データ分析における仮説検証など、「複数のステップを踏んで結論を導く作業」全般で活用されています。特にAIの判断根拠を人間が確認する必要がある場面(医療・法律・金融など)では、思考過程が可視化されるCoTの透明性が重宝されます。
Q. CoTを使うとトークン消費量が増えると聞きましたが本当ですか?
本当です。中間ステップを出力するぶん、生成されるトークン数は確実に増加します。API課金でコストが跳ね上がる場合があるため、すべての質問にCoTを適用するのではなく、「多段階の推論が必要な問題だけCoTを使い、単純な質問は標準プロンプトで処理する」という使い分けが実務上のベストプラクティスです。