AIシステム開発における「モデルの解釈可能性(Explainability)」がセキュリティ監査で重要となる理由はどれか。

説明可能なAI(XAI)は、AIがなぜその判断を下したかを人間が理解できるようにし、バイアス、ポイズニング、誤動作などのリスクを監査・検証するために不可欠である。