AI(特に深層学習モデル)の内部的な動作や、そのモデルが「なぜ」その予測結果(結論)に至ったのかの理由や根拠を、人間が理解・解釈できるように説明する技術やアプローチの総称はどれか。

AIの予測結果の理由や根拠を人間が理解できるようにする。