ファインチューニングは、生成AIや大規模言語モデル(LLM)の普及に伴い、基本情報技術者・応用情報技術者の科目Aで出題が増えているテーマです。
対象試験と出題頻度
ファインチューニングは、基本情報技術者・応用情報技術者で出題されるテーマです。
生成AI関連の用語として近年急速に出題頻度が上がっており、「転移学習」「プロンプトエンジニアリング」「アノテーション」との違いを正確に区別できるかが問われます。
詳細をクリックして確認
基本情報技術者
応用情報技術者
★★★☆☆
ランクB(標準)覚えておくと有利
用語の定義
情報処理試験を勉強していると、「ファインチューニングって転移学習と何が違うの?」「プロンプトエンジニアリングとどう使い分けるの?」と混乱しがちです。
ファインチューニング(Fine-tuning)とは、一言で言うと
「事前学習済みのAIモデルに、少量の追加データで再学習を行い、特定のタスクに適応させる手法」
のことです。
イメージとしては、「総合病院の医師が、専門科に配属されて特訓を受ける」ようなものです。
医学部で幅広い知識を身につけた(=事前学習した)医師が、皮膚科の症例データを集中的に学ぶことで皮膚科の専門医になる。ゼロから医学部に入り直す必要はなく、少量の専門知識の追加で即戦力になれます。
ファインチューニングもこれと同じ構造です。
📊 ファインチューニングの基本情報
| 項目 | 内容 |
|---|---|
| 英語名 | Fine-tuning |
| 分類 | 機械学習(転移学習の一手法) |
| 操作対象 | 事前学習済みモデルのパラメータ(重み) |
| 主な利用場面 | LLMの業務特化、画像認識モデルの分野適応など |
解説
近年、ChatGPTをはじめとするLLMが急速に普及しました。
しかし、汎用モデルをそのまま使うだけでは、自社の業務用語や専門領域の質問に正確に答えられないケースが出てきます。
この課題を解決する方法の一つがファインチューニングです。汎用モデルが持つ膨大な知識をベースにしつつ、特定領域のデータで追加学習を行い、モデル内部のパラメータ(重み)を調整します。
処理の流れ
ファインチューニングは大きく3つのステップで進みます。
ファインチューニングの処理フロー
STEP 1:事前学習済みモデルの準備
大量の汎用データで学習済みのモデルを入手する
(例:GPT、BERT など)
STEP 2:タスク固有のデータで追加学習
目的に合った少量のラベル付きデータセットを用意し、
モデルのパラメータ(重み)を微調整する
STEP 3:特化モデルの完成
特定タスク(医療文書の要約、法律Q&A など)に
高精度で対応できるモデルが得られる
※ ゼロから学習するのではなく、STEP 1の知識を引き継ぐため、少量データ+短時間で済む
関連手法との比較
ファインチューニングは単独で理解するよりも、類似手法との違いを押さえた方が記憶に残ります。
ここだけは確実に押さえてください。
| 手法 | パラメータの扱い | 一言で言うと |
|---|---|---|
| ファインチューニング | モデル全体または一部の重みを再学習 | モデルの中身を書き換えて特化させる |
| 転移学習 (狭義) |
既存の重みは固定し、出力層のみ学習 | モデルの中身は触らず、出口だけ付け替える |
| プロンプト エンジニアリング |
パラメータは一切変更しない | 指示文(プロンプト)の工夫だけで出力を改善する |
| RAG | パラメータは一切変更しない | 外部データベースから情報を検索し、回答生成時に参照させる |
「モデルのパラメータを変えるか?」で整理する図
パラメータを変更する
ファインチューニング
全体 or 一部の重みを再学習
転移学習(狭義)
出力層のみ学習
パラメータを変更しない
プロンプトエンジニアリング
指示文の工夫で改善
RAG
外部データを検索して参照
▲ 試験では「パラメータを変更するかどうか」が判別の決め手になる
では、この用語が試験でどのように出題されるか見ていきましょう。
💡 ファインチューニングの核心を3行で
・事前学習済みモデルのパラメータ(重み)を、特定タスク向けのデータで再調整する手法
・ゼロから学習する場合と比べ、少量データかつ短時間で高精度なモデルが作れる
・転移学習(狭義)やプロンプトエンジニアリングとは「パラメータを変更するか否か」で区別する
試験ではこう出る!
ファインチューニングは、FE・APの科目A問題で令和6年以降に出題が集中している新傾向テーマです。
出題パターンは大きく2つに分かれます。
📊 過去問での出題実績
| 試験回 | 出題内容 | 問われたポイント |
|---|---|---|
| FE R7年度 科目A 問1 |
大規模言語モデルにおけるファインチューニングの記述として最も適切なものを選ぶ問題。 | ・「特定のデータで追加学習し、目的のタスクに適用」が正解 ・「強化学習を行う」「事前学習と同じデータで繰り返す」がひっかけ |
| AP R6年秋期 午前 問71 |
基盤モデルを自社業務に特化させるカスタマイズ手法の名称を選ぶ問題。 | ・正解は「ファインチューニング」 ・「アノテーション」「クラスタリング」「プロンプトエンジニアリング」がひっかけ |
📝 IPA試験での出題パターン
パターン1:「ファインチューニングの説明を選べ」
4つの記述が並び、ファインチューニングに該当するものを選ぶ形式。ひっかけとして「強化学習」「事前学習の説明」「大量データでの再学習」が紛れ込む。キーワードは「事前学習済みモデル」「追加学習」「特定タスクに適応」。
パターン2:「用語名を選べ」
「基盤モデルを独自データでカスタマイズする手法は何か」と問い、選択肢からファインチューニングを選ばせる形式。「アノテーション」(ラベル付け作業)や「プロンプトエンジニアリング」(指示文の最適化)を選ばせるひっかけに注意。
試験ではここまででOKです。具体的な学習率の設定方法やLoRAなどの効率化手法は問われないので、深追いは不要です。
【確認テスト】理解度チェック
ここまでの内容を理解できたか、簡単なクイズで確認してみましょう。
Q. 生成AIのビジネス活用において、事前学習済みの基盤モデルに独自データで追加学習を行い、自社の業務に特化したモデルへカスタマイズする手法はどれか。
- A. 事前学習済みモデルのパラメータを、目的のタスクに合わせた少量のデータで再調整し、特定領域に適応させる手法であるファインチューニング。
- B. 学習データに対して「犬」「猫」などのラベルや注釈を人手で付与し、教師あり学習用のデータセットを作成する作業であるアノテーション。
- C. モデルのパラメータは変更せず、入力する指示文(プロンプト)を設計・最適化することで、出力の精度を向上させるプロンプトエンジニアリング。
正解と解説を見る
正解:A
解説:
ファインチューニングは、事前学習済みのAIモデルに対し少量の追加データで再学習を行い、特定タスクへ適応させる手法です。「独自データで追加学習」「モデルのカスタマイズ」というキーワードが問題文に含まれていれば、ファインチューニングを選びます。
選択肢Bのアノテーションは、学習データにラベルを付与する前処理工程であり、モデル自体を学習させる操作ではありません。選択肢Cのプロンプトエンジニアリングは、モデルのパラメータを一切変更せず指示文の工夫だけで出力を改善する手法であり、「追加学習でカスタマイズする」という問題文の条件に合致しません。
よくある質問(FAQ)
Q. ファインチューニングにはどのくらいのデータ量が必要ですか?
タスクやモデルの規模によって異なりますが、数百~数千件程度のラベル付きデータで効果が出るケースが多いです。事前学習では数十億件規模のデータを使いますが、ファインチューニングはそこで得た知識を土台にするため、圧倒的に少ないデータ量で済みます。ただし、IPA試験の範囲では具体的なデータ件数は問われないので、「少量のデータで特化できる」と覚えておけば十分です。
Q. ファインチューニングとRAG(検索拡張生成)はどう使い分けますか?
モデルに新しい知識を「覚えさせたい」場合はファインチューニング、最新情報や社内文書を「参照させたい」場合はRAGが適しています。ファインチューニングはパラメータを書き換えるため学習コストがかかる反面、応答速度は速いです。RAGは外部データベースを検索するため情報の鮮度を保ちやすいですが、検索精度に依存します。実務では両者を組み合わせるケースも増えています。
Q. ファインチューニングすると元のモデルの性能が落ちることはありますか?
あります。「破滅的忘却(Catastrophic Forgetting)」と呼ばれる現象で、特定タスクのデータに過度に適応すると、元の汎用的な能力が失われることがあります。これを防ぐために、学習率を低く設定したり、一部の層のパラメータを凍結(固定)したりする技術が使われます。試験範囲では深掘りされませんが、「やりすぎると元の性能が劣化するリスクがある」という点は知っておいて損はありません。
Q. 転移学習とファインチューニングは試験で同じ意味として扱われますか?
文脈によります。広義では、ファインチューニングは転移学習の一手法に含まれます。しかしAP R6秋 午前 問71の解説では、「パラメータを調整する場合がファインチューニング、パラメータを固定したまま出力層のみ学習する場合が転移学習」と明確に区別されています。IPA試験では後者の厳密な区別が出る可能性があるため、「パラメータを動かすかどうか」で使い分ける意識を持っておくのが安全です。