情報処理試験を勉強していると、「転移学習って結局何?ファインチューニングと何が違うの?」と混乱しがちです。

対象試験と出題頻度

転移学習は、ITパスポート・基本情報技術者・応用情報技術者で出題されるテーマです。

AI・機械学習分野のシラバス改訂(Ver.6.2以降)で追加された比較的新しい用語であり、ファインチューニングや過学習との区別を問う問題が出始めています。

詳細をクリックして確認
対象試験:
ITパスポート
基本情報技術者
応用情報技術者
出題頻度:
★★★☆☆
ランクC(応用)余裕があれば覚える

用語の定義

転移学習(Transfer Learning)とは、一言で言うと

 「ある領域で学習済みのAIモデルを、別の領域に再利用して効率的に学習させる手法

のことです。

イメージとしては、自動車の運転免許を持っている人がトラックの免許を取る場面に近いです。

ゼロから教習所に通う人と比べて、ハンドル操作や交通ルールの知識はすでに身についています。追加で覚えるのはトラック特有の車両感覚やブレーキ特性だけで済むため、短期間・少ない練習量で合格できます。

転移学習もこれと同じ発想です。

📊 転移学習の基本情報

項目 内容
英語名 Transfer Learning
分類 機械学習(ディープラーニング)の学習手法
目的 学習済みモデルの知識を流用し、少ないデータ・短い時間で新しいタスクに対応する
関連用語 ファインチューニング、事前学習、過学習

解説

なぜ転移学習が必要なのか

ディープラーニングのモデルをゼロから構築するには、大量の訓練データと膨大な計算時間が必要です。たとえば画像認識の代表的なモデルは数百万枚の画像で数週間かけて学習されています。

しかし現実には「症例数の少ない病気の診断」「新規オープンした店舗の売上予測」など、十分なデータを集められないケースが大半です。

この「データ不足」と「計算コスト」の壁を乗り越えるために、既存モデルの知識を借りてくる方法が生まれました。

転移学習の仕組み

ニューラルネットワークは複数の層で構成されており、入力に近い層ほど「線や色といった汎用的な特徴」を、出力に近い層ほど「犬の顔・車のタイヤといった具体的な特徴」を捉えます。

転移学習では、事前学習済みモデルの入力側の層(汎用的な特徴を抽出する部分)のパラメータを固定したまま保持し、出力層だけを新しいタスク用に差し替えて学習を行います。

汎用的な知識はそのまま活用し、タスク固有の判断だけを追加で学ぶ構造です。

転移学習の仕組み(イメージ図)

事前学習済みモデル(例:大量の画像で学習済み)

↓ このモデルの「知識」を借りてくる

🔒 ここは固定(そのまま使う)

「線・色・形」など汎用的なパターンを
見分ける力がすでに身についている部分

(=特徴抽出層)

🔄 ここだけ新しく学習

「この画像は病気?正常?」など
新しいタスクの判断基準を覚える部分

(=出力層・分類層)

新しいタスク用モデル(例:医療画像の分類)

少量のデータ+短時間で学習完了!

▲ 汎用的な「見分ける力」はそのまま活用し、最終判断の部分だけを新タスク向けに学習する

ファインチューニングとの違い

ここだけは確実に押さえてください。両者はどちらも「事前学習済みモデルを再利用する」点は共通ですが、パラメータの扱いが異なります。

比較項目 転移学習 ファインチューニング
パラメータ 事前学習済みの重みを固定し、出力層のみ学習 事前学習済みの重みを調整(再学習)、モデル全体を微調整
必要データ量 少量で済む 転移学習よりは多めに必要
適用場面 元モデルと新タスクの分野・データ形式が近い場合 元モデルと新タスクに差があり、パラメータの修正が必要な場合
計算コスト 低い 転移学習より高い

AP R6秋 午前 問71の公式解説でも「パラメータを固定したまま出力層の学習のみにより適応可能である場合は転移学習、パラメータの調整が必要な場合はファインチューニング」と明記されています。

この区分がそのまま得点に直結します。

では、この用語が試験でどのように出題されるか見ていきましょう。

💡 転移学習の核心を3行で

・学習済みモデルの重みを固定したまま、出力層だけを新しいタスク用に差し替えて学習する手法
・少量のデータ・短い学習時間で新タスクに対応できるのが最大のメリット
・パラメータを再調整するファインチューニングとは「固定 vs 調整」で区別する


試験ではこう出る!

転移学習は、シラバスVer.6.2(ITパスポート)およびVer.7.0(AP)以降で明示的に追加された用語です。単独での出題実績はまだ限られますが、AI関連用語の選択肢の1つとして繰り返し登場しています。

📊 過去問での出題実績

試験回 出題内容 転移学習の扱い
AP R4秋
午前 問4
「過学習の説明として適切なものはどれか」を選ぶ問題 選択肢アに「ある領域で学習した学習済みモデルを,別の領域に再利用することによって,効率的に学習させる」=転移学習の説明がダミーとして配置
AP R6秋
午前 問71
「基盤モデルを独自データでカスタマイズすることを何と呼ぶか」を選ぶ問題 正解はファインチューニング。公式解説内で「パラメータ固定のまま適応可能なら転移学習」と明確に対比

📝 IPA試験での出題パターン

パターン1:「AI用語の説明として正しいものを選べ」
過学習・転移学習・バックプロパゲーション・強化学習の4つの説明文が並び、正解以外のダミーとして転移学習の説明が紛れ込む形式。AP R4秋 問4がこの典型です。キーワードは「別の領域に再利用」「効率的に学習」。

 

パターン2:「ファインチューニングとの区別」
AP R6秋 問71のように、ファインチューニングが正解の問題で「転移学習との違いを理解しているか」が暗に問われる。ひっかけポイントは「パラメータを固定するか調整するか」。

 

試験ではここまででOKです。層の凍結方法やモデルアーキテクチャの詳細まで問われることはないので、深追いは不要です。


【確認テスト】理解度チェック

ここまでの内容を理解できたか、簡単なクイズで確認してみましょう。


Q. ある領域で学習済みのAIモデルを別の領域に再利用し、少量のデータで効率的に新しいタスクに対応させる手法として、最も適切なものはどれでしょうか?

  • A. 学習済みモデルのパラメータを固定したまま出力層を差し替え、新しいタスク向けに出力層のみを学習させる手法である。
  • B. 学習済みモデルのパラメータ全体を再調整し、特定のタスクに最適化するためにモデル全体を微調整する手法である。
  • C. 訓練データに過剰に適合した結果、未知のデータに対する予測精度が低下してしまう現象である。

正解と解説を見る

正解:A

解説:
転移学習は、事前学習済みモデルのパラメータを固定したまま出力層を新タスク用に差し替えて学習する手法です。少量のデータと短い学習時間で新しい領域に対応できる点が最大の特徴です。

選択肢Bはファインチューニングの説明です。ファインチューニングはモデル全体のパラメータを再調整する点で、パラメータを固定する転移学習とは異なります。選択肢Cは過学習(オーバーフィッティング)の説明です。過学習は訓練データに過剰適合してしまう現象であり、学習手法ではありません。


よくある質問(FAQ)

Q. 転移学習は画像認識以外の分野でも使えますか?

使えます。自然言語処理(NLP)の分野では、大量のテキストで事前学習した大規模言語モデル(LLM)をベースに、特定業界の文書分類や感情分析に適用する事例が一般的です。音声認識でも、汎用的な音声モデルを方言や専門用語の認識に転用するケースがあります。

Q. 転移学習がうまくいかないケースはありますか?

あります。元のモデルが学習した分野と、新しいタスクの分野があまりにもかけ離れている場合は「負の転移(Negative Transfer)」と呼ばれる現象が起き、むしろ精度が下がります。例えば、自然画像で学習したモデルをそのまま音声データに適用しても、有効な特徴を引き継げません。分野やデータ形式が近いほど成功率は高くなります。

Q. 事前学習・転移学習・ファインチューニングの順番は決まっていますか?

まず「事前学習」で大量のデータを使ってベースモデルを作ります。次に、そのモデルを新タスクに活用する段階で「転移学習」か「ファインチューニング」のどちらかを選択します。転移学習だけでは精度が不十分な場合に、ファインチューニングを追加で行うケースもあります。つまり、事前学習 → 転移学習 or ファインチューニング(必要に応じて併用)という流れです。

Q. 敵対的サンプルと転移学習は関係がありますか?

直接の関係はありませんが、間接的に関わる場面があります。敵対的サンプルはAIを騙すために入力データに微小なノイズを加える攻撃手法です。転移学習で構築したモデルもディープラーニングベースであれば敵対的サンプルの影響を受ける可能性があります。ただし、IPA試験では両者の関連を問う問題は出ていないため、それぞれ独立した用語として押さえれば十分です。