AIシステムの検証において、学習データに含まれる偏りが引き起こすリスク(AIバイアス)を評価する手法はどれか。

AIの公平性テストは、特定の属性(性別や人種等)に対して不当な判定が行われないかを確認する重要な検証項目である。