AI倫理における「説明責任(Accountability)」をテストで担保するためのアプローチはどれか。

AIがなぜその判断を下したのかを人間が理解・説明できる状態にあるかを確認することが、ガバナンス上重要である。