AIガバナンスにおいて、AIモデルがなぜその結論に至ったかを人間が理解・説明できる能力を指す用語であり、ブラックボックス化問題への対策となるものはどれか。

XAIは、AIの推論プロセスや判断根拠を可視化・説明可能にすることで、信頼性、公平性、コンプライアンス(説明責任)を確保する技術領域である。