情報処理試験を勉強していると、「生成AIって普通のAIと何が違うの?」「ChatGPTの話が試験に出るの?」と混乱しがちです。この記事では、生成AI(Generative AI)の意味から仕組み、関連用語、試験での出題パターンまでを一本で整理します。

対象試験と出題頻度

生成AI(Generative AI)は、ITパスポート・基本情報技術者・応用情報技術者のすべてで出題されるテーマです。

2024年4月以降、IPAのシラバス改訂(Ver.6.2)により生成AIが正式に出題範囲へ追加されました。ハルシネーション、ファインチューニング、基盤モデルといった周辺用語とセットで出題されるのが特徴です。

詳細をクリックして確認
対象試験:
ITパスポート
基本情報技術者
応用情報技術者
出題頻度:
★★★★★
ランクS(超重要)絶対に覚える必要あり

用語の定義

生成AI(Generative AI)とは、一言で言うと

 「大量のデータを学習し、テキスト・画像・音声・プログラムコードなど、新しいコンテンツを自動で生成できるAI技術

のことです。

イメージとしては、膨大な本を読み込んだ超博識なアシスタントです。

このアシスタントは「こんな文章を書いて」「こんな絵を描いて」と頼むと、読み込んだ知識をもとに新しい作品をゼロから作り出します。

ただし、頼み方(プロンプト)が曖昧だと的外れな結果になったり、知らないことをさも事実かのように答えたりする癖もあります。

📊 生成AI(Generative AI)の基本情報

項目 内容
英語名 Generative AI(ジェネレーティブAI)
技術基盤 深層学習(ディープラーニング)、大規模言語モデル(LLM)など
生成できるもの テキスト、画像、音声、動画、プログラムコード
代表的サービス ChatGPT、Gemini、Claude、Stable Diffusion、GitHub Copilot
IPA試験での追加時期 2024年4月(シラバスVer.6.2適用)

解説

従来のAIは「分類する」「予測する」といった分析型の処理が中心でした。画像を見て「これは猫」と判定したり、過去の売上データから来月の売上を予測したりする使い方です。

これに対して生成AIは、学習済みのパターンをもとに「まだ存在しないコンテンツを新しく作り出す」ことができます。この”生成”の力が従来型との決定的な違いです。

従来のAIと生成AIの違い

比較項目 従来のAI(分析型AI) 生成AI
主な役割 既存データの分類・予測・判定 新しいコンテンツの創出
入力 画像・数値データなど 自然言語による指示(プロンプト)
出力 ラベル(猫/犬)、数値(売上予測) 文章、画像、コード、音声など
具体例 スパムメール検知、需要予測 ChatGPT、画像生成AI

生成AIを支える技術スタック

生成AIは、AI技術の積み重ねの頂点に位置します。下の図は、その階層構造を示したものです。

生成AIの技術階層

生成AI(Generative AI)
大規模言語モデル(LLM)/拡散モデル
機械学習(Machine Learning)
AI(人工知能)

▲ AI → 機械学習 → ディープラーニング → LLM/拡散モデル → 生成AI という包含関係

機械学習がAIの一手法であり、そこからニューラルネットワークを多層化したディープラーニングが発展し、さらにその上に大規模言語モデル(LLM)や拡散モデルといった基盤技術が構築されています。

生成AIは、これらの技術を活用して「新しいコンテンツを出力する」応用分野という位置づけです。

試験で問われる関連キーワード

生成AIの出題では、本体の定義だけでなく周辺キーワードとセットで問われます。ここだけは確実に押さえてください。

キーワード 意味
ハルシネーション 学習データの誤りや不足が原因で、事実と異なる情報をもっともらしく出力してしまう現象。「幻覚」の意味
プロンプト 生成AIに与える自然言語の指示文。出力品質はプロンプトの質に大きく左右される
基盤モデル
(Foundation Model)
広範囲かつ大量のデータで事前学習されたモデル。微調整(ファインチューニング)で多用途に適応可能
ファインチューニング 事前学習済みモデルに特定のデータを追加学習させ、特定のタスクに最適化する手法
オプトアウト 利用者が入力した情報をAIの学習に利用させないよう拒否する設定
詳細解説(何となくで覚えたい人向け)

ハルシネーションの具体例

「織田信長の出身大学は?」と聞くと、存在しない大学名を堂々と答えるようなケースです。モデルは「次に来る確率が最も高い単語」を並べているだけなので、学習データに含まれない事実を補おうとしたときに「もっともらしいウソ」が生まれます。

ファインチューニングとプロンプトエンジニアリングの違い

ファインチューニングは「モデルの内部パラメータを追加学習で書き換える」操作です。一方、プロンプトエンジニアリングは「モデルは変えずに、指示文(プロンプト)の工夫で出力を改善する」手法です。AP R6秋 午前問71では、基盤モデルへの追加学習がファインチューニングであることが問われました。

生成AIの種類と代表的モデル

種類 生成するもの 代表例
テキスト生成 文章、要約、翻訳 ChatGPT、Gemini、Claude
画像生成 イラスト、写真風画像 Stable Diffusion、DALL·E、Midjourney
コード生成 プログラムコード GitHub Copilot、Claude Code
音声・音楽生成 ナレーション、BGM Suno、ElevenLabs
動画生成 映像、アニメーション Sora、Runway

生成AIのリスクと課題

強力な技術である一方、以下のリスクが指摘されています。

⚠ 生成AIの主なリスク

ハルシネーション 事実に基づかない情報を生成する。人間によるファクトチェックが不可欠
著作権侵害 学習データに含まれる著作物に類似した出力が生まれる可能性がある
情報漏えい 入力した機密情報がAIの学習データに取り込まれ、他者への回答に含まれるリスク
バイアス(偏り) 学習データの偏りが出力に反映され、差別的・偏見的な結果を生むことがある

では、この用語が試験でどのように出題されるか見ていきましょう。

💡 生成AIの核心を3行で

・学習データをもとに新しいコンテンツ(テキスト・画像・コード等)を自動で作り出すAI技術
・ディープラーニングの上に構築された大規模言語モデル(LLM)や拡散モデルが基盤
・ハルシネーション、ファインチューニング、基盤モデル、オプトアウトが頻出キーワード


試験ではこう出る!

生成AIは、2024年4月のシラバス改訂以降、IP・FE・APのすべてで出題が確認されています。IPAが公開したサンプル問題3問(2023年8月公開)を含め、出題実績を整理します。

📊 過去問・公開問題での出題実績

試験回 出題内容 問われたポイント
IP サンプル
問1
システム開発に生成AIを活用する事例を選ぶ問題。 ・「自然言語の指示で図を描画するコードを出力させる」が正解
・サーバ構築やCI/CDの自動化との混同がひっかけ
IP サンプル
問2
事実と異なる情報をもっともらしく生成する事象の名称を問う問題。 ・正解は「ハルシネーション」
・ディープフェイク、アノテーション、バイアスがひっかけ
IP サンプル
問3
AI基盤モデルの特徴を選ぶ問題。 ・「大量データで事前学習+微調整で多用途に対応」が正解
・エキスパートシステムや教師あり学習との混同がひっかけ
FE R7公開
問1
大規模言語モデルに対するファインチューニングの説明を選ぶ問題。 ・「特定のデータで追加学習し、目的のタスクに適用する」が正解
・強化学習・同データの反復学習との混同がひっかけ
FE R7公開
問17
生成AIサービスのオプトアウト設定が有効な場面を選ぶ問題。 ・「入力情報をAIの学習に利用させたくない場合」が正解
・著作権主張、信ぴょう性向上との混同がひっかけ
AP R6秋
午前 問71
基盤モデルを自社業務に特化させる手法名を問う問題。 ・正解は「ファインチューニング」
・プロンプトエンジニアリング、転移学習との区別が論点
AP R7春
午前 問78
生成AIと著作権法の関係について適切な記述を選ぶ問題。 ・著作権法30条の4(学習目的の利用)の理解が必要
・「学習=即侵害」は誤り、という点がポイント

📝 IPA試験での出題パターン

パターン1:「生成AIの活用事例を選べ」
4つの事例から「自然言語の指示で新しいコンテンツを生成する」ものを選ぶ形式。サーバ構築やテスト自動化など「生成」と名が付くだけの選択肢がひっかけになる。

 

パターン2:「関連用語の定義を選べ」
ハルシネーション、ファインチューニング、基盤モデルなどの用語名を答えさせる、または定義文を選ばせる形式。アノテーション、ディープフェイク、バイアスとの区別が問われる。

 

パターン3:「リスク・法的論点を問う」
AP R7春 問78のように、著作権法との関係やオプトアウトの意味を問う形式。FE R7 問17もこの系統。今後の出題増加が見込まれる。

 

試験ではここまででOKです。GANやTransformerのアーキテクチャ詳細は午前問題では問われないので、深追いは不要です。


【確認テスト】理解度チェック

ここまでの内容を理解できたか、簡単なクイズで確認してみましょう。


Q. 生成AI(Generative AI)が、学習データの誤りや不足などによって、事実とは異なる情報や無関係な情報を、もっともらしい情報として生成する事象を指す用語として、最も適切なものはどれでしょうか?

  • A. ハルシネーション
  • B. アノテーション
  • C. ディープフェイク

正解と解説を見る

正解:A

解説:
ハルシネーション(Hallucination)は、生成AIが学習データの不足や誤りにより、事実に基づかない情報をあたかも正しいかのように出力する現象です。「幻覚」を意味する英単語に由来します。IPAが公開した生成AIサンプル問題(問2)でも、まさにこの定義が出題されています。

選択肢Bのアノテーションは、AI学習用のデータに「犬」「猫」などの正解ラベルを付与する作業です。選択肢Cのディープフェイクは、人間が意図的にAI技術を使って既存の画像・動画を加工し、精巧な偽物を作り出す行為を指します。ハルシネーションが「AIが勝手に誤る」のに対し、ディープフェイクは「人間が意図的に偽物を作る」という点で異なります。


よくある質問(FAQ)

Q. 生成AIと敵対的サンプルは何が関係しているのですか?

敵対的サンプルは、AIの画像認識モデルに微細なノイズを加えて誤判定を引き起こす攻撃手法です。生成AIそのものへの攻撃ではありませんが、AIの脆弱性に関する出題として同じカテゴリで問われることがあります。「入力をわずかに改変してAIを騙す」のが敵対的サンプル、「事実と異なる出力をAI自身が生成してしまう」のがハルシネーションという違いを整理しておくと、選択肢の切り分けに役立ちます。

Q. 「RAG(検索拡張生成)」とは何ですか?試験に出ますか?

RAG(Retrieval-Augmented Generation)は、AIが回答を生成する前に外部のデータベースやドキュメントを検索し、その検索結果を参考にして回答精度を高める技法です。ハルシネーションの低減策として注目されています。2025年時点ではIP・FEの出題範囲には明示されていませんが、APの午前問題や高度試験で今後出題される可能性があります。「ファインチューニング=モデルの内部を書き換える」「RAG=外部データを参照して回答を補強する」という違いだけ把握しておけば十分です。

Q. 実務で生成AIを導入する際、最初に検討すべきことは何ですか?

最も重要なのは「利用ポリシーの策定」です。社内の機密情報や個人情報を外部の生成AIサービスに入力してよいのか、出力結果を社外公開してよいのか、著作権上の扱いをどうするか──こうしたルールを事前に決めておかないと、情報漏えいや法的リスクに直結します。実際にFE R7 問17では、オプトアウト設定(入力データを学習に使わせない設定)の理解が問われており、実務と試験の両面で重要な論点です。

Q. 「プロンプトエンジニアリング」と「プロンプトインジェクション」は何が違いますか?

プロンプトエンジニアリングは、生成AIから望ましい出力を得るために指示文を工夫する「正しい使い方」です。一方、プロンプトインジェクションは、悪意のある指示文を入力してAIの制限を回避させたり、意図しない動作を引き起こさせたりする「攻撃手法」です。同じ”プロンプト”を扱う概念ですが、目的がまったく異なるため、選択肢で混在させるひっかけパターンに注意してください。