情報処理試験を勉強していると、「Few-shotって何?Zero-shotやOne-shotとどう違うの?」と混乱しがちです。この記事では、AIに例を見せて精度を高めるFew-shotの仕組みを、日常の例え話と図解で整理します。

対象試験と出題頻度

Few-shot(フューショット)は、ITパスポート・基本情報技術者・応用情報技術者の出題範囲に含まれるAI関連テーマです。

IPAシラバスでは「プロンプトエンジニアリング」や「フューショット学習」として用語例に掲載されており、生成AI分野の出題強化に伴い今後問われる可能性がある用語です。

詳細をクリックして確認
対象試験:
ITパスポート
基本情報技術者
応用情報技術者
出題頻度:
★★★☆☆
ランクC(応用)余裕があれば覚える

用語の定義

Few-shot(フューショット)とは、一言で言うと

 「AIに少数の入出力例を提示することで、目的のタスクをより正確に実行させるプロンプト手法

のことです。

イメージとしては、新人バイトにお手本を2〜3回見せてから仕事を任せる感覚です。

いきなり「接客して」と言われるより、「こういうお客さんにはこう対応してね」と具体例を見せてもらったほうが正確に動けます。Few-shotはAIに対して同じことをする技術です。

📊 Few-shotの基本情報

項目 内容
英語名 Few-shot Prompting / Few-shot Learning
分類 プロンプトエンジニアリング技法 / 機械学習手法
「shot」の意味 AIに提示する例(入力と出力のペア)の数
関連用語 Zero-shot、One-shot、Chain-of-Thought(CoT)

解説

ChatGPTをはじめとする大規模言語モデル(LLM)は、膨大なテキストデータで事前学習を済ませているため、指示文だけでも多くのタスクをこなせます。

しかし、出力形式を統一したい場合や、専門的な判断基準を伝えたい場合は、指示だけでは精度が不十分になることがあります。

この問題を解決するのがFew-shotです。プロンプト内に2〜3個の「入力→出力」ペアをお手本として添えるだけで、AIはパターンを読み取り、同じ形式・基準で応答を返すようになります。

Zero-shot / One-shot / Few-shot の違い

プロンプトに含める例の数(shot数)によって呼び方が変わります。ここだけは確実に押さえてください。

手法 例の数 特徴 向いている場面
Zero-shot 0個 指示文のみで応答させる 一般常識の範囲で答えられる簡単な質問
One-shot 1個 例を1つだけ提示する 出力フォーマットだけ揃えたいとき
Few-shot 2〜数個 複数の例でパターンを学習させる 判断基準が複雑、出力の一貫性が重要なとき

図解:プロンプト構成の比較

実際のプロンプトがどう変わるか、感情分析タスクを例に比較します。

Zero-shot(例なし)

次の文の感情を判定してください。

「今日の映画は最高だった」→ ?

One-shot(例1つ)

「料理がおいしかった」→ ポジティブ


「今日の映画は最高だった」→ ?

Few-shot(例2つ以上)

「料理がおいしかった」→ ポジティブ

「電車が遅延して最悪」→ ネガティブ

「まあ普通かな」→ ニュートラル


「今日の映画は最高だった」→ ?

▲ shot数が増えるほどAIの判断基準が明確になり、出力精度が上がる

なぜ例を見せるだけで精度が上がるのか

LLMは事前学習で「文脈の次に来る単語を予測する」能力を獲得しています。

Few-shotで例を提示すると、モデルはプロンプト内の文脈パターンを読み取り、それに合致する出力を生成します。この仕組みはインコンテキスト学習(In-Context Learning)と呼ばれ、モデルの重み(パラメータ)を更新せずに応答の方向性を制御できる点が特徴です。

詳細解説:ファインチューニングとの違い(クリックで展開)

ファインチューニングはモデルのパラメータそのものを追加学習で書き換える手法です。大量の学習データと計算リソースが必要になる一方、特定タスクへの適応度は非常に高くなります。

Few-shotはパラメータを変更しません。プロンプトに例を添えるだけなので、コストゼロで即座に試せるのが最大の利点です。ただし、プロンプトの長さ(トークン数)に制約があるため、提示できる例の数には上限があります。

試験範囲ではこの違いまで深掘りされないため、「Few-shot=プロンプトに例を入れる手法」「ファインチューニング=モデル自体を再学習する手法」と区別できれば十分です。

では、この用語が試験でどのように出題されるか見ていきましょう。

💡 Few-shotの核心を3行で

・AIに2つ以上の入出力例を提示し、応答精度を高めるプロンプト技法
・例の数が0個ならZero-shot、1個ならOne-shot、2個以上ならFew-shot
・モデルのパラメータは変更せず、プロンプトの文脈だけで出力を制御する


試験ではこう出る!

Few-shotは、IPA各試験のシラバス改訂(IPシラバスVer.6.2以降、APシラバスVer.7.0)で「フューショット学習」「プロンプトエンジニアリング」として用語例に追加された比較的新しいテーマです。

過去問での直接的な出題実績はまだ少ないですが、IPAが公開した生成AIサンプル問題やシラバスの追加状況から、今後の出題が見込まれます。

📊 シラバス掲載状況・出題根拠

根拠 内容 ポイント
IPシラバス
Ver.6.2〜
生成AIに関する用語例として「プロンプトエンジニアリング」が追加 Few-shotはプロンプトエンジニアリングの代表的技法として出題範囲内
APシラバス
Ver.7.0
基礎理論 > AI > 自然言語処理の用語例に「ゼロショット学習,フューショット学習,プロンプトエンジニアリング」を明記 APでは用語名が直接シラバスに記載されており、選択肢で問われる可能性が高い
IPA 生成AI
サンプル問題
2023年公開のIPサンプル問題で生成AI(ハルシネーション・基盤モデル等)が出題 生成AIの周辺用語が今後も追加出題される流れ

📝 想定される出題パターン

パターン1:「Few-shotの説明を選べ」
Zero-shot、Few-shot、ファインチューニング、転移学習の説明文が並び、Few-shotに該当するものを選ぶ形式。ひっかけとして「モデルのパラメータを更新する」(ファインチューニング)、「例を一切与えずに推論する」(Zero-shot)の説明が紛れ込む。キーワードは「少数の例」「プロンプト」。

 

パターン2:「プロンプトエンジニアリングの手法を選べ」
プロンプトエンジニアリングの具体例としてFew-shotが正解になるパターン。敵対的サンプルやRLHF(人間のフィードバックによる強化学習)など、AI関連だが別カテゴリの用語がひっかけ選択肢になる。

 

試験ではここまででOKです。インコンテキスト学習の内部メカニズムやshot数の最適化手法まで問われることはないので、深追いは不要です。


【確認テスト】理解度チェック

ここまでの内容を理解できたか、簡単なクイズで確認してみましょう。


Q. 大規模言語モデルに対して、少数の入力と出力の組をプロンプト内に提示し、モデルのパラメータを変更せずに応答精度を向上させる手法として、最も適切なものはどれでしょうか?

  • A. Few-shotプロンプティング:プロンプト内に複数の入出力例を提示し、モデルに文脈からパターンを読み取らせて応答を制御する手法。
  • B. ファインチューニング:事前学習済みモデルのパラメータを追加の学習データで再調整し、特定タスクへの適応度を高める手法。
  • C. Zero-shotプロンプティング:入出力例を一切提示せず、指示文のみでモデルにタスクを実行させる手法。

正解と解説を見る

正解:A

解説:
Few-shotプロンプティングは、プロンプト内に複数の入出力ペアを例示として含め、モデルのパラメータを一切変更せずに応答の精度や形式を制御する手法です。問題文の「少数の入力と出力の組を提示」「パラメータを変更せずに」の2つの条件を同時に満たすのはAだけです。

選択肢Bのファインチューニングは、モデルのパラメータそのものを追加学習で書き換える手法です。「パラメータを変更せずに」という条件に反するため不正解です。選択肢CのZero-shotは、例を一切使わない手法です。「少数の入出力の組を提示」という条件に合わないため不正解です。


よくある質問(FAQ)

Q. Few-shotで提示する例は何個がベストですか?

明確な正解の個数はありません。一般的には2〜5個が実用的な目安です。例が多すぎるとプロンプトのトークン数上限に達してしまい、モデルが処理できる本文のスペースが減ります。逆に少なすぎるとパターンの学習が不十分になります。タスクの複雑さとモデルのコンテキスト長に応じて調整するのが現実的です。

Q. Few-shotとChain-of-Thought(CoT)は何が違いますか?

Few-shotは「入力→出力」のペアを複数提示する手法です。Chain-of-Thought(CoT)は「入力→思考過程→出力」のように、推論のステップを含めて例示する手法です。CoTはFew-shotの発展形と捉えることができ、特に算数や論理推論のような段階的な思考が必要なタスクで精度が大きく向上します。

Q. Few-shot Learningとfew-shot promptingは同じ意味ですか?

文脈によって微妙にニュアンスが異なります。Few-shot Learningは機械学習全般で「少数のデータから学習する」ことを指す広い概念で、メタラーニングなどの研究文脈で使われます。Few-shot promptingはLLMに対して「プロンプト内に少数の例を含める」手法に限定した用語です。IPAの試験範囲ではどちらも「少数の例でタスクに適応させる」と理解しておけば得点に支障はありません。

Q. 実務でFew-shotはどんな場面で使いますか?

代表的な活用場面として、問い合わせメールの自動分類、コードレビューコメントのトーン統一、議事録の要約フォーマット統一などがあります。いずれも「出力の形式や判断基準を揃えたいが、専用モデルを訓練するほどのコストはかけたくない」というケースで重宝します。APIからLLMを呼び出す際にシステムプロンプトへ例を埋め込む方法が一般的です。