情報処理試験を勉強していると、「大規模言語モデル(LLM)って結局何のこと?生成AIと何が違うの?」と混乱しがちです。
この記事では、LLMの意味・仕組み・関連用語との違いを図解つきで整理し、試験で得点できる状態を目指します。
対象試験と出題頻度
大規模言語モデル(LLM)は、ITパスポート・基本情報技術者・応用情報技術者のすべてで出題対象となっているテーマです。
IPAシラバスVer.6.2(2024年4月適用)で正式に追加された用語であり、生成AIブームを受けて今後さらに出題が増える分野です。
詳細をクリックして確認
ITパスポート
基本情報技術者
応用情報技術者
★★★★☆
ランクA(重要)必ず覚えておくべき
用語の定義
大規模言語モデル(LLM:Large Language Model)とは、一言で言うと
「大量のテキストデータで事前学習し、人間の言葉を理解・生成できるようになったAIモデル」
のことです。
イメージとしては、「世界中の図書館の本を読破した超記憶力の秘書」です。
この秘書は膨大な書籍・記事・論文を読み込んでいるため、どんな質問にも「それらしい回答」を文章で返せます。ただし、読んだ内容を「理解」しているわけではなく、文脈から「次に来る確率の高い単語」を高精度に予測して並べている。これがLLMの正体です。
📊 大規模言語モデル(LLM)の基本情報
| 項目 | 内容 |
|---|---|
| 英語名 | Large Language Model(LLM) |
| 分類 | ディープラーニング(深層学習)に基づくAIモデル |
| 中核技術 | Transformer(トランスフォーマー)アーキテクチャ |
| 代表例 | GPTシリーズ(OpenAI)、BERT(Google)、LLaMA(Meta)、Claude(Anthropic) |
| シラバス追加 | IPAシラバスVer.6.2(2024年4月適用) |
解説
LLMが登場した背景
従来の自然言語処理(NLP)は、用途ごとにモデルを一から設計・学習する必要がありました。翻訳には翻訳専用のモデル、要約には要約専用のモデルといった具合です。
2017年にGoogleが論文「Attention Is All You Need」でTransformerという新しいニューラルネットワーク構造を発表したことで状況が一変しました。
Transformerは文中の単語同士の関係を並列に処理でき、従来の手法より圧倒的に高速かつ高精度に言語パターンを学習できます。この技術を土台に、パラメータ数を数十億〜数兆規模に拡大したものがLLMです。
LLMの学習プロセス
LLMは大きく2段階のプロセスを経て完成します。
LLMの2段階学習プロセス
Step 1:事前学習(Pre-training)
インターネット上の書籍・記事・論文など
数兆語規模のテキストを読み込み
「次に来る単語を予測する」タスクを繰り返す
Step 2:ファインチューニング(Fine-tuning)
特定の用途に合わせた少量の専門データで追加学習
例:医療文書に特化、チャット応答に特化
完成:特定タスクに対応したAIサービス
例:ChatGPT(対話特化)、GitHub Copilot(コード生成特化)
※ 事前学習は汎用的な言語能力の獲得、ファインチューニングは用途別の調整
関連用語との位置関係
LLMは多くのAI関連用語と密接に関わっています。それぞれの包含関係を正確に把握しておくことが重要です。
AI関連用語の包含関係
AI(人工知能)
機械学習(Machine Learning)
ディープラーニング(深層学習)
(言語処理)
(画像認識)
(画像生成)
▲ LLMはディープラーニングの一種であり、AIの中の「入れ子構造」に位置する
| 用語 | 意味 | LLMとの関係 |
|---|---|---|
| 生成AI | テキスト・画像・音声などを新たに作り出すAIの総称 | LLMは生成AIの中核技術の一つ。テキスト生成を担う |
| 基盤モデル | 大規模データで事前学習された汎用AIモデル | LLMは基盤モデルの代表例。画像系の基盤モデルもある |
| Transformer | 自己注意機構(Self-Attention)を用いたニューラルネットワーク構造 | LLMの中核アーキテクチャ。GPTの「T」はTransformerの頭文字 |
| プロンプト | LLMに入力する指示文・質問文 | LLMの出力品質はプロンプトの設計に大きく依存する |
| ハルシネーション | LLMがもっともらしいが事実と異なる内容を生成する現象 | LLM固有のリスクとして試験でも問われる |
では、この用語が試験でどのように出題されるか見ていきましょう。
💡 LLMの核心を3行で
・大量テキストで事前学習し、自然言語の生成・理解を行うディープラーニングベースのAIモデル
・Transformerアーキテクチャが中核技術。「次の単語を予測する」タスクの繰り返しで言語能力を獲得
・ファインチューニングで特定タスクに特化させて使う(ChatGPT、コード生成AIなど)
試験ではこう出る!
LLM関連の問題は、IPAシラバスVer.6.2の適用(2024年4月)以降、急速に出題が増えています。ここだけは確実に押さえてください。
📊 過去問での出題実績
| 試験回 | 出題内容 | 問われたポイント |
|---|---|---|
| FE R7公開 科目A 問1 |
大規模言語モデルを用いた自然言語処理におけるファインチューニングの説明を選ぶ問題 | ・「特定データで追加学習」が正解 ・強化学習(RLHF)、事前学習の再実行との混同がひっかけ |
| IP R7公開 問80 |
広範囲かつ大量のデータで訓練され、様々な用途に適応できるAIの名称を選ぶ問題 | ・正解は「基盤モデル」 ・アノテーション、エキスパートシステム、CNNがひっかけ |
| IP R7公開 問28 |
生成AIに関する記述として最も適切なものを選ぶ問題 | ・「学習データのパターンを基に新しいコンテンツを生成する」が正解 ・「一切の学習不要」「将来値の予測」がひっかけ |
📝 IPA試験での出題パターン
パターン1:「ファインチューニングの説明を選べ」
FE R7公開問1の典型パターン。事前学習(大量データでの初期学習)とファインチューニング(特定データでの追加学習)の違いを正確に区別できるかが問われる。「大量のデータ」という選択肢は事前学習の説明なので不正解。
パターン2:「基盤モデルの特徴を選べ」
IP R7公開問80の典型パターン。LLMそのものの名称ではなく、LLMを含む上位概念である「基盤モデル(Foundation Model)」の特徴を問う形式。「汎用性」と「ファインチューニングによる特化」がキーワード。
パターン3:「生成AIの説明を選べ」
LLMの名前が直接問われず、生成AI全般の定義を問う形式。「学習データのパターンに基づき新しいコンテンツを作る」という点を押さえておけば対応できる。
試験ではここまででOKです。Transformerの内部構造(Self-AttentionやPositional Encodingの詳細)まで問われることはIP・FE・APレベルではないので、深追いは不要です。
【確認テスト】理解度チェック
ここまでの内容を理解できたか、簡単なクイズで確認してみましょう。
Q. 大規模言語モデル(LLM)に関する記述として、最も適切なものはどれでしょうか?
- A. 画像データのピクセル情報を畳み込み処理することで、物体認識の精度を高めるモデルである。
- B. 専門家の知識をif-thenルールの形式で蓄積し、特定分野の意思決定を支援するシステムである。
- C. 大量のテキストデータで事前学習し、人間の言葉を理解・生成する能力を獲得したAIモデルであり、ファインチューニングにより特定タスクに適応できる。
正解と解説を見る
正解:C
解説:
LLMは、大量のテキストで事前学習を行い、自然言語を生成・理解する能力を持つディープラーニングベースのAIモデルです。ファインチューニングで特定用途に特化させる運用が一般的です。
選択肢Aは畳み込みニューラルネットワーク(CNN)の説明です。CNNは主に画像認識に用いられるモデルであり、テキスト処理を主目的とするLLMとは異なります。選択肢Bはエキスパートシステムの説明です。エキスパートシステムはルールベースの旧来型AIであり、データから自動的にパターンを学習するLLMとはアプローチが根本的に異なります。
よくある質問(FAQ)
Q. LLMと生成AIは同じものですか?
同じではありません。生成AIは「新たなコンテンツ(テキスト・画像・音声・動画など)を作り出すAI」の総称です。LLMはその中でテキスト生成を担う技術の一つにすぎません。画像生成に使われる拡散モデル(Stable Diffusionなど)も生成AIですが、LLMではありません。
Q. 「パラメータ数が多い=賢い」と考えていいですか?
必ずしもそうとは限りません。パラメータ数が多いほど複雑なパターンを学習できる傾向はありますが、学習データの質・量やファインチューニングの手法、推論時のプロンプト設計によっても出力品質は大きく変わります。パラメータ数はあくまでモデルの規模を示す指標の一つです。
Q. ハルシネーション(幻覚)はなぜ起きるのですか?
LLMは「次に来る確率の高いトークン(単語の断片)」を順に出力する仕組みです。文脈的に自然な文章を生成することは得意ですが、出力内容が事実かどうかを検証する機能は持っていません。そのため、学習データに含まれない情報を問われた場合や、曖昧な質問を受けた場合に、もっともらしいが事実と異なる内容を生成することがあります。IP R7公開問題でもハルシネーションの定義が出題されています。
Q. プロンプトエンジニアリングとは何ですか?
LLMに与える指示文(プロンプト)を工夫し、望む出力を引き出す技術のことです。例えば「要約して」より「3行で箇条書きにして要約して」のように具体的に指示すると出力精度が上がります。IPAシラバスVer.6.2で追加された用語であり、LLMの活用方法として試験で問われる可能性がある分野です。
Q. 敵対的サンプルの攻撃はLLMにも有効ですか?
概念としては有効です。画像認識AIに対するノイズ付加の手法が有名ですが、LLMに対しても「プロンプトインジェクション」と呼ばれる手法で意図しない出力を引き出す攻撃が研究されています。ただし、IPA試験のIP・FE・APレベルでは、敵対的サンプルは主に画像認識の文脈で出題されるため、LLMとの関連を深掘りする必要はありません。