XAI(説明可能なAI)は、AI分野の新しいキーワードとしてIPAシラバスに追加された用語です。

「AIの判断に理由をつける技術」という核心を押さえれば、試験でも実務でも迷わなくなります。

対象試験と出題頻度

XAI(説明可能なAI)は、ITパスポート・基本情報技術者・応用情報技術者で出題対象となるテーマです。

IPAシラバス Ver.6.2(2023年8月公開)で用語例として追加されており、ディープラーニングやAI倫理と絡めた出題が想定されます。

詳細をクリックして確認
対象試験:
ITパスポート
基本情報技術者
応用情報技術者
出題頻度:
★★★☆☆
ランクB(標準)覚えておくと有利

XAI(説明可能なAI)の定義

情報処理試験を勉強していると、「XAIって結局何のこと?普通のAIと何が違うの?」と戸惑うことがあります。

XAI(eXplainable AI:説明可能なAI)とは、一言で言うと

 「AIが出した予測や判断の根拠を、人間が理解できる形で提示する技術の総称

です。

イメージとしては、計算過程を書かないと×になる数学のテストです。

数学のテストでは、答えだけ書いても「途中式がないと正解にできない」と言われます。なぜその答えになったのか、採点者(=人間)が検証できなければ信用されないからです。

AIも同じで、「審査を通しました」「不合格です」と結論だけ出されても、利用者は納得できません。そこで判断の根拠を開示する仕組みがXAIです。

📊 XAI(説明可能なAI)の基本情報

項目 内容
正式名称 eXplainable Artificial Intelligence
日本語名 説明可能なAI
提唱元 DARPA(米国国防高等研究計画局)が2017年にプログラムを開始
対になる概念 ブラックボックスAI(判断過程が不透明なAI)
IPAシラバス Ver.6.2で用語例として追加(ストラテジ系 ビジネスインダストリ)

解説

なぜXAIが必要になったのか

近年のニューラルネットワークは精度が飛躍的に向上しましたが、モデルの内部構造が複雑すぎて「なぜその結論に至ったか」を人間が追えなくなりました。これが「ブラックボックス問題」です。

例えば、ローン審査AIが「この人は融資不可」と判定したとき、申請者に理由を説明できなければ法的にも倫理的にも問題になります。EUのGDPR(一般データ保護規則)では、自動化された意思決定に対して「説明を受ける権利」が明文化されています。

こうした社会的要請を受け、DARPAが2017年に「XAIプログラム」を立ち上げたのが、この分野が注目されるきっかけです。

図解:ブラックボックスAIとXAIの違い

ブラックボックスAI vs XAI

従来のAI(ブラックボックス)

入力データ
AIモデル
(中身が見えない)
結果だけ出力

❌ 「なぜ?」に答えられない

XAI(説明可能なAI)

入力データ
AIモデル
(根拠を抽出)
結果 + 判断根拠

✅ 「この特徴量が決め手」と示せる

代表的な手法(LIME・SHAP・Grad-CAM)

根拠を提示する方法は複数研究されています。試験範囲では手法名の暗記は不要ですが、概要を知っておくと選択肢の消去法に役立ちます。

代表的な手法の詳細を確認する(何となくで覚えたい人向け)
手法名 何をするか ざっくりイメージ
LIME 入力データを少しずつ変えて、どの部分が結果に影響したかを局所的に近似する 「この単語を消したら判定が変わった → この単語が重要だった」と絞り込む
SHAP ゲーム理論の「シャープレイ値」を応用し、各特徴量の貢献度を公平に算出する 「年収が+30点、勤続年数が+20点…」と点数を配分するイメージ
Grad-CAM 画像認識で「AIがどの領域を見て判断したか」をヒートマップで可視化する 猫の写真で「耳の部分が赤くなっている → ここを見て猫と判定した」と分かる

※ 試験ではこれらの手法名が直接問われる可能性は低いです。「特徴量の重要度を提示する」「判断根拠を人間に分かる形にする」という考え方が本質です。

関連用語との位置関係

XAIは単独の技術ではなく、「信頼できるAI」を実現するための枠組みの一部です。混同しやすい関連概念との関係を整理しておきます。

信頼できるAIを構成する概念マップ

信頼できるAI(Trustworthy AI)

XAI

(判断根拠の開示)

本記事のテーマ

公平性

(バイアスの排除)

プライバシー保護

(個人情報の適正利用)

安全性

(敵対的攻撃への耐性)

NISTは2021年に「NISTIR 8312: Four Principles of Explainable AI」を発行し、説明可能性の4原則(説明・意味のある情報・正確さ・限界の明示)を定めています。国際的にも標準化が進んでいる領域です。

では、この用語が試験でどのように出題されるか見ていきましょう。

💡 XAIの核心を3行で

・AIの判断根拠を人間に理解できる形で示す技術の総称
・対になる概念は「ブラックボックスAI」(中身が見えないAI)
・DARPAが2017年に提唱し、EU GDPRの「説明を受ける権利」など社会的要請が背景にある


試験ではこう出る!

XAIはIPAシラバスVer.6.2(2023年8月)で追加された比較的新しい用語です。ITパスポートの公開問題では2025年1月時点で直接的な出題実績は確認されていませんが、シラバスの用語例に明記されているため、今後の出題対象です。

📊 出題根拠と想定パターン

根拠 詳細
IPAシラバス ITパスポート シラバスVer.6.2 ストラテジ系「ビジネスシステム」に「説明可能なAI(XAI:Explainable AI)」として記載
FE/APシラバス 基本情報・応用情報のテクノロジ系でもAI関連の出題範囲に含まれる
関連出題実績 IP R4公開 問21でAI倫理関連、IP R5公開 問14でAI技術の活用事例が出題されており、AI関連用語の出題は増加傾向にある

📝 想定される出題パターン

パターン1:「XAIの説明として正しいものを選べ」
選択肢に「ハルシネーション」「アルゴリズムのバイアス」「ヒューマンインザループ」「説明可能なAI」の説明文が4つ並び、XAIに該当するものを選ぶ形式。ひっかけは「AIが誤った情報を生成すること」(ハルシネーション)や「人間がAIの判断に介入すること」(ヒューマンインザループ)です。

 

パターン2:「AI活用における課題への対策を選べ」
「AIの判断過程が不透明である」という課題文に対して、解決策としてXAIを選ばせる形式。「学習データの量を増やす」「処理速度を向上させる」はXAIと無関係なので消去できます。

 

ここだけは確実に押さえてください。「XAI = 判断根拠を人間に提示する仕組み」「対義語 = ブラックボックス」の2点だけで選択肢は絞れます。手法名(LIME・SHAP等)まで問われる可能性は低いため、深追いは不要です。


【確認テスト】理解度チェック

ここまでの内容を理解できたか、簡単なクイズで確認してみましょう。


Q. XAI(Explainable AI:説明可能なAI)の説明として、最も適切なものはどれでしょうか?

  • A. AIが学習データに含まれない情報をもっともらしく生成してしまう現象のこと。
  • B. AIが導き出した結果に対して、その判断の根拠を人間が理解できる形で示す技術の総称のこと。
  • C. AIの学習プロセスに人間が介入し、出力の品質を段階的に改善していく手法のこと。

正解と解説を見る

正解:B

解説:
XAI(説明可能なAI)は、AIによる予測・判断の根拠を人間が納得できる形で提示するための技術群です。ブラックボックス化したAIの透明性を確保する目的で研究が進められています。

選択肢Aはハルシネーション(幻覚)の説明です。ハルシネーションは生成AIが事実と異なる内容をもっともらしく出力する現象であり、判断根拠の開示とは別の問題です。選択肢Cはヒューマンインザループ(HITL)の説明です。HITLはAIの処理に人間が介入して品質を高める手法であり、判断理由を「後から説明する」XAIとはアプローチが異なります。


よくある質問(FAQ)

Q. XAIを導入すると、AIの予測精度は下がりますか?

一般にトレードオフの関係があります。解釈しやすい単純なモデル(決定木など)は根拠が明確ですが精度が低くなりやすく、精度の高い複雑なモデル(深層学習など)は根拠の提示が難しくなります。そのため、LIMEやSHAPのように「複雑なモデルはそのままに、後付けで根拠を抽出する」手法が主流になっています。精度を犠牲にせず説明性を確保するのが現在の研究の方向性です。

Q. XAIと「人間中心のAI社会原則」はどう関係しますか?

内閣府が2019年に策定した「人間中心のAI社会原則」では、「説明責任の原則」が7原則の一つに含まれています。AIの開発者・運用者はAIの判断について説明する責任を負うとされており、この原則を技術面で実現する手段がXAIです。ITパスポートでは「人間中心のAI社会原則」自体も出題範囲に含まれるため、セットで覚えておくと効率的です。

Q. 実務ではどのような場面でXAIが使われていますか?

金融(融資審査の理由開示)、医療(診断支援AIの根拠表示)、製造業(品質検査AIの異常箇所特定)など、「AIの判断に対して人間の承認が必要な業務」で広く導入されています。特に金融業界では、金融庁が「AIを用いた与信判断の適切な説明」を求めており、規制対応としてXAI技術の採用が進んでいます。

Q. 「特徴量」とは何ですか?XAIとの関係を教えてください。

特徴量とは、AIが学習・判断に使うデータの属性を数値化したものです。例えば住宅価格の予測AIなら「築年数」「駅からの距離」「面積」などが特徴量にあたります。XAIでは「どの特徴量が判断に大きく影響したか」を算出して提示するのが基本的なアプローチです。IPAの用語解説でも「根拠となる特徴量を利用して」と記載されており、両者はセットで理解するのが自然です。