情報処理試験を勉強していると、「ディープラーニングってAIと何が違うの?機械学習とは別物?」と混乱しがちです。この記事では、ディープラーニング(深層学習)の意味を日常の例え話で噛み砕き、試験で得点できる状態を目指します。

対象試験と出題頻度

ディープラーニング(深層学習)は、ITパスポート・基本情報技術者・応用情報技術者のすべてで出題されるテーマです。

IP・FE・APいずれの午前(科目A)でもほぼ毎回出題されており、AI分野の最頻出キーワードの一つです。

詳細をクリックして確認
対象試験:
ITパスポート
基本情報技術者
応用情報技術者
出題頻度:
★★★★☆
ランクA(重要)必ず覚えておくべき

ディープラーニング(深層学習)の定義

ディープラーニング(Deep Learning/深層学習)とは、一言で言うと

 「人間の脳神経回路を模倣したニューラルネットワークを多層化し、大量のデータからパターンや特徴を自動で学習するAI技術

のことです。

イメージとしては、何百人もの目利き職人が順番にチェックする品質検査ラインです。

工場の品質検査で、最初の職人は「色がおかしくないか」、次の職人は「形に歪みがないか」、その次は「重さが基準内か」と、それぞれ異なる観点で製品をチェックします。

チェック回数が増えるほど不良品の見落としが減り、精度が上がります。

ディープラーニングも同じで、データが多くの層を通過するたびに「色」「輪郭」「構造」といった特徴が段階的に抽出され、最終的に高精度な判断を下します。

📊 ディープラーニングの基本情報

項目 内容
英語名 Deep Learning
分類 人工知能(AI)> 機械学習 > 深層学習
基盤技術 ニューラルネットワーク(多層)
主な活用分野 画像認識、音声認識、自然言語処理、自動運転など

解説

AI・機械学習・深層学習の関係

まず押さえておくべきは、AI・機械学習・深層学習は「入れ子構造」になっているという点です。

AI(人工知能)が最も広い概念で、その中に機械学習があり、さらにその中にディープラーニングが含まれます。

AI(人工知能)

機械学習

ディープ
ラーニング

▲ AI ⊃ 機械学習 ⊃ ディープラーニングの包含関係

従来の機械学習では、「どの特徴に注目すべきか」を人間がデータから選び出す必要がありました(これを特徴量エンジニアリングと呼びます)。

一方、ディープラーニングは多層構造のネットワークがデータの中から特徴を自動で見つけ出します。この「人間が特徴を指定しなくてよい」点が最大の違いです。

ニューラルネットワークの構造

ディープラーニングの土台となるニューラルネットワークは、入力層・中間層(隠れ層)・出力層の3種類の層で構成されます。

中間層が2層以上に重なった構造を「ディープ(深い)」と呼びます。

ニューラルネットワークの層構造(イメージ)

x₁ x₂ x₃ 入力層 中間層① 中間層② 中間層③ y₁ y₂ 出力層 ※ 中間層(隠れ層)が複数あるため「ディープ(深い)」と呼ばれる

各ノード間には「重み」と呼ばれるパラメータが設定されています。

学習フェーズでは、大量のデータ(入力と正解のペア)をネットワークに流し、出力と正解のズレを損失関数で計測します。

そのズレを小さくするように、誤差逆伝播法(バックプロパゲーション)で重みを繰り返し調整していきます。この一連の仕組みにより、入力に対して最適な出力を返す学習モデルが構築されます。

もう少し詳しく知りたい方はこちら(折りたたみ)

学習の流れ(4ステップ)

順伝播(フォワードプロパゲーション):入力データを入力層から出力層まで順方向に流し、予測値を得る。

損失計算:予測値と正解の差を損失関数(交差エントロピーや二乗誤差など)で数値化する。

誤差逆伝播(バックプロパゲーション):損失を出力層から入力層へ逆方向にたどり、各ノードの重みがどの程度損失に寄与しているかを計算する。

重み更新:勾配降下法を使い、損失が小さくなる方向に重みを更新する。この①〜④を何千回・何万回と繰り返すことでモデルの精度が向上する。

GPUが活用される理由は、この学習過程で大量の行列演算が発生するためです。GPUは多数のコアで同種の計算を並列実行できるため、CPUよりも圧倒的に高速に学習を回せます。AP R3春期 問10ではまさにこの点が問われました。

紛らわしいAI用語との比較

過去問では、ディープラーニングの説明と紛らわしい選択肢として、エキスパートシステム、データマイニング、遺伝的アルゴリズムなどが繰り返し登場します。

それぞれの特徴を整理しておきます。

用語 特徴 見分けキーワード
ディープラーニング 多層ニューラルネットワークでデータの特徴を自動抽出 脳神経回路、多層、ニューラルネットワーク、特徴の自動抽出
エキスパートシステム 専門家の知識をルール化し推論で解を導く ルールベース、専門家、推論
遺伝的アルゴリズム 生物の進化を模倣し、交配・突然変異・淘汰で最適解に近づける 進化、交配、突然変異、淘汰
データマイニング 大量データから未知の規則・パターンを統計的に発見する 規則の発見、統計的手法、例外の除去

では、この用語が試験でどのように出題されるか見ていきましょう。

💡 ディープラーニングの核心を3行で

・AI ⊃ 機械学習 ⊃ ディープラーニングの入れ子構造
・ニューラルネットワークの中間層を多層化し、特徴量を人間が指定せずにデータから自動抽出する
・学習には大量データと誤差逆伝播法による重み調整が必要で、GPUによる行列演算の高速化が鍵


試験ではこう出る!

ディープラーニングは、IP・FE・APの午前(科目A)でほぼ毎回出題されています。ここだけは確実に押さえてください。

📊 過去問での出題実績(抜粋)

試験回 出題内容 問われたポイント
IP R7
問86
大量の画像から動物の特徴を自動抽出して識別するAI技術を選ぶ ・eラーニング、アダプティブラーニングとの語感混同がひっかけ
IP R6
問95
ディープラーニングに用いられる技術を選ぶ ・正解は「ニューラルネットワーク」
・ソーシャルネットワークがひっかけ
IP R4
問67
ディープラーニングに関する記述を選ぶ ・「ニューラルネットワーク」が正解を示すキーワード
・eラーニング、エキスパートシステムがひっかけ
FE R6
科目A免除 問3
ディープラーニングに最も関連が深いものを選ぶ ・「神経回路網を模倣」「多層」「パラメータ調整」が正解の根拠
・エキスパートシステム、遺伝的アルゴリズムがひっかけ
AP R6春
午前 問3
ディープラーニングに関する記述として適切なものを選ぶ ・「脳神経回路のように多層の処理を重ねる」が正解
・データマイニングの説明が2つ紛れ込む
AP R3春
午前 問10
学習にGPUを用いる利点を問う ・「行列演算を並列で高速実行」が正解
・MIMD方式やFPGAの説明がひっかけ

📝 IPA試験での出題パターン

パターン1:「ディープラーニングの説明を選べ」
4つのAI関連技術の説明が並び、ディープラーニングに該当するものを選ぶ形式。ひっかけとして「ルールベースの推論」(エキスパートシステム)、「交配・突然変異」(遺伝的アルゴリズム)、「未知の規則を発見」(データマイニング)が並ぶ。キーワード「脳神経回路」「多層」「ニューラルネットワーク」を含む選択肢が正解。

 

パターン2:「関連技術を選べ」
ディープラーニングに用いられる技術名を選ぶ形式。「ニューラルネットワーク」が正解。「ソーシャルネットワーク」と語感が似ているため、雰囲気で選ばないよう注意。

 

パターン3:「GPUを使う利点を選べ」(AP向け)
学習処理に必要な行列演算の並列実行が利点。試験ではここまででOKです。誤差逆伝播法の数式までは深追い不要です。


【確認テスト】理解度チェック

ここまでの内容を理解できたか、簡単なクイズで確認してみましょう。


Q. AIにおけるディープラーニングに関する記述として、最も適切なものはどれでしょうか?

  • A. 特定分野の専門的な知識をルール化し、そのルールに基づく演繹的な推論によって、専門家と同等の結論を導く手法である。
  • B. 人間の脳神経回路を模倣したモデルを多層に構成し、大量のデータから特徴やパターンを自動的に学習する手法である。
  • C. 生物の進化を模倣し、解の候補に対して交配・突然変異・淘汰を繰り返すことで、最適解に近づけていく手法である。

正解と解説を見る

正解:B

解説:
ディープラーニングは、ニューラルネットワークの中間層を多層化し、データの特徴を人間の手を介さずに自動抽出するAI技術です。「脳神経回路」「多層」「自動的に学習」がそろった選択肢Bが正解です。

選択肢Aはエキスパートシステムの説明です。人間が事前にルールを定義するため、データから自律的に学ぶディープラーニングとはアプローチが根本的に異なります。選択肢Cは遺伝的アルゴリズムの説明です。最適化手法の一つであり、ニューラルネットワークとは無関係です。


よくある質問(FAQ)

Q. ディープラーニングと従来の機械学習は、試験上どう区別すればいいですか?

選択肢に「ニューラルネットワーク」「多層」「脳神経回路」のいずれかが含まれていればディープラーニングです。従来の機械学習(決定木、k-NN、サポートベクターマシンなど)は「特徴量を人間が選定する」前提で書かれることが多いため、「自動的に特徴を抽出する」という表現があればディープラーニングと判断してください。

Q. 「ニューラルネットワーク」と「ディープラーニング」は同じ意味ですか?

異なります。ニューラルネットワーク自体は入力層・中間層1つ・出力層の3層構成でも成立します。中間層が2層以上に積み重なった構造を持つニューラルネットワークを使った学習手法がディープラーニングです。つまり、すべてのディープラーニングはニューラルネットワークを使いますが、すべてのニューラルネットワークがディープラーニングとは限りません。

Q. ディープラーニングにはどんな種類がありますか?

代表的なモデルとして、画像認識に強いCNN(畳み込みニューラルネットワーク)、時系列データや自然言語処理に使われるRNN(再帰型ニューラルネットワーク)、近年の大規模言語モデルの基盤であるTransformerなどがあります。IPA試験ではモデル名の詳細より「ディープラーニング全体の概念」が問われるため、これらの名前を知っておく程度で十分です。

Q. ディープラーニングの弱点はありますか?

大量の学習データと計算資源(GPUなど)を必要とする点がコスト面の課題です。また、学習データに偏りがあるとモデルの判断も偏る(バイアス問題)、入力に微小なノイズを加えると誤判定を引き起こす敵対的サンプルへの脆弱性、そして判断の根拠を人間が解釈しにくい「ブラックボックス問題」が実務上の課題として知られています。