情報処理試験を勉強していると、「RAGって何?ファインチューニングとどう違うの?」と混乱しがちです。

この記事では、RAG(検索拡張生成)の意味から仕組み、試験での出題ポイントまでを整理します。

対象試験と出題頻度

RAG(検索拡張生成)は、基本情報技術者・応用情報技術者で出題が見込まれるテーマです。

2024年10月適用のシラバスVer.9.0では、生成AI関連用語が大幅に追加されました。RAG自体はシラバスの用語例に明示されていませんが、ハルシネーション対策として実務・試験の両面で注目度が急上昇している技術です。

詳細をクリックして確認
対象試験:
基本情報技術者
応用情報技術者
出題頻度:
★★☆☆☆
ランクC(応用)余裕があれば覚える

用語の定義

RAG(Retrieval-Augmented Generation:検索拡張生成)とは、一言で言うと

 「大規模言語モデル(LLM)が回答を生成する前に、外部のデータベースを検索して関連情報を取得し、その情報をもとに回答精度を高める技術

のことです。

イメージとしては、オープンブック試験(参考書持ち込みOKのテスト)です。

何も見ずに記憶だけで答えると間違えやすい問題でも、手元の参考書を開いて該当ページを確認してから回答すれば、正確に答えられます。

RAGはこれと同じで、AIが「自分の記憶(学習データ)だけで答える」のではなく、「外部の資料を検索してから答える」仕組みです。

📊 RAGの基本情報

項目 内容
英語名 Retrieval-Augmented Generation
読み方 ラグ
目的 LLMの回答精度を向上させ、ハルシネーションを低減する
構成要素 外部データベース(ナレッジベース)、検索エンジン、LLM
提唱元 Meta AI Research(旧Facebook AI Research)が2020年の論文で提唱

解説

LLMは大量のテキストで事前学習されていますが、学習データには「時点の限界」と「範囲の限界」があります。

学習後に発生した最新情報や、企業固有の社内文書はモデル内部に含まれていません。

この問題に対して、モデルの外側に知識ソースを置き、質問のたびに検索してから回答させるアプローチがRAGです。

RAGの処理フロー

RAGの処理は「検索フェーズ」と「生成フェーズ」の2段階に分かれます。

RAGの処理フロー

① ユーザーが質問を入力
② 外部データベースから関連文書を検索(Retrieval)
③ 質問+検索結果をまとめてLLMに渡す
④ LLMが検索結果を踏まえて回答を生成(Generation)

▲ ②の検索精度が回答品質を大きく左右する

ポイントは、LLMのパラメータ(内部の重み)を一切変更しないことです。

モデルはそのままで、入力に「参考資料」を添付しているだけです。

ファインチューニングとの違い

RAGと混同されやすい概念にプロンプトエンジニアリングファインチューニングがあります。ここだけは確実に押さえてください。

比較項目 RAG ファインチューニング
やること 外部データを検索してプロンプトに添付 追加データでモデル内部のパラメータを更新
モデルの変更 変更しない 変更する
最新情報への対応 データベースを更新すれば即反映 再学習が必要
例え 参考書を見ながら回答する 新しい教科書で復習し直す
詳細解説(何となくで覚えたい人向け)

なぜRAGがハルシネーション対策になるのか

LLMが事実と異なる情報をもっともらしく出力するハルシネーションは、モデル内部に該当する知識がない(または不正確な)ときに発生します。RAGでは、回答の根拠となる文書をあらかじめ検索し、その文書の内容に基づいて回答を生成するため、「根拠のないでっちあげ」が起きにくくなります。ただし、検索結果自体が不正確であれば回答も不正確になるため、ナレッジベースの品質管理が不可欠です。

ベクトル検索(セマンティック検索)との関係

RAGの検索フェーズでは、キーワード一致ではなく「意味の近さ」で文書を探すベクトル検索がよく使われます。文書をベクトル(数値の配列)に変換し、質問文のベクトルとの距離が近い文書を取得する仕組みです。この変換にはEmbeddingモデルが用いられます。試験範囲では深掘りされないため、「意味の近い文書を探す検索手法がある」程度の理解で十分です。

では、この用語が試験でどのように出題されるか見ていきましょう。

💡 RAGの核心を3行で

・LLMが回答前に外部データベースを検索して根拠情報を取得する技術
・モデルのパラメータは変更しない(ファインチューニングとの決定的な違い)
・ハルシネーションの低減と最新情報への対応が主な目的


試験ではこう出る!

RAGは、IPAの基本情報技術者試験シラバスVer.9.0の用語例には明示されていません。しかし、生成AI関連の出題が急増しているなかで、ハルシネーション対策やLLMのカスタマイズ手法の比較問題として出題される可能性があります。

IPAが2023年8月に公開した生成AIサンプル問題ではハルシネーションとファインチューニングが個別に問われており、FE R7公開 問1でもファインチューニングの定義が出題されています。

RAGは「ファインチューニングではないもう一つの手法」として選択肢に登場する形式が見込まれます。

📝 想定される出題パターン

パターン1:「LLMのカスタマイズ手法を区別させる」
ファインチューニング、RAG、プロンプトエンジニアリングの3つの説明文を並べ、それぞれの名称を選ばせる形式。「モデルのパラメータを変更するか否か」「外部データを検索するか否か」が判別のカギになる。

 

パターン2:「ハルシネーション対策として適切な手法を選べ」
AP R6秋 午前問71(ファインチューニング)の派生として、「外部のナレッジベースを参照して回答精度を高める手法」の名称を問う出題。転移学習やアノテーションがひっかけ選択肢として紛れ込む。

 

試験ではここまででOKです。ベクトルDBやチャンキング手法の詳細までは問われないので、深追いは不要です。


【確認テスト】理解度チェック

ここまでの内容を理解できたか、簡単なクイズで確認してみましょう。


Q. 大規模言語モデル(LLM)の回答精度を向上させる手法のうち、モデルのパラメータを変更せず、外部のデータベースから関連情報を検索して回答に反映させるものとして、最も適切なものはどれでしょうか?

  • A. ファインチューニング(Fine-tuning):事前学習済みモデルに特定分野のデータを追加学習させ、モデル内部のパラメータを更新してタスク精度を高める手法。
  • B. アノテーション(Annotation):学習データに正解ラベル(タグ)を付与し、教師あり学習の訓練データを作成する作業。
  • C. RAG(Retrieval-Augmented Generation):LLMが回答を生成する前に外部のナレッジベースを検索し、取得した情報をプロンプトに付加して回答精度を高める手法。

正解と解説を見る

正解:C

解説:
RAG(Retrieval-Augmented Generation)は、LLMが回答を生成する際に外部データベースから関連文書を検索・取得し、その内容を参考にして回答の正確性を高める技術です。モデル自体のパラメータには手を加えません。

選択肢Aのファインチューニングは、モデル内部のパラメータを追加データで書き換える手法です。「外部データベースを検索する」のではなく「モデル自体を再学習させる」点でRAGとは異なります。選択肢Bのアノテーションは、学習データにラベルを付ける前処理の作業であり、LLMの回答精度向上手法ではありません。


よくある質問(FAQ)

Q. RAGを導入すればハルシネーションは完全になくなりますか?

なくなりません。RAGは「検索で得た文書」を根拠に回答を生成しますが、検索結果が不正確だったり、該当文書が存在しなかったりすれば、依然として誤った回答が生まれます。また、LLMが検索結果を無視して独自の回答を生成するケースもあります。RAGは「ハルシネーションの発生確率を下げる」技術であり、ゼロにする技術ではありません。

Q. RAGとファインチューニングは併用できますか?

併用できます。ファインチューニングで特定ドメインの語彙や応答パターンをモデルに学習させたうえで、RAGで最新情報や社内文書を補完する、という組合せが実務では一般的です。ファインチューニングは「モデルの基礎体力を鍛える」、RAGは「回答時に最新のカンペを渡す」と整理すると理解しやすいです。

Q. RAGは実務ではどのような場面で使われていますか?

代表的な活用例は、社内のFAQチャットボットや問い合わせ対応システムです。社内規程・マニュアル・過去の問い合わせ履歴などをナレッジベースに格納し、従業員が質問するとAIが該当文書を検索して回答します。外部のSaaS企業でも、製品ドキュメントをRAGで検索させるカスタマーサポートAIを提供するケースが増えています。

Q. G検定(JDLA)ではRAGは出題範囲に入っていますか?

入っています。JDLA(日本ディープラーニング協会)のG検定シラバス(2025年版)では、RAGが明示的に出題範囲に含まれています。IPA試験よりも先にAI関連の新用語を取り込む傾向があるため、G検定の過去問を併せて確認しておくと理解が深まります。