AIモデルに対するセキュリティテストにおいて、学習データに特定のトリガー(例:サングラスをかけた画像)を混ぜ込み、そのトリガーがあった場合のみ誤動作(バックドア)させる攻撃を検出する難しさは何か。

データポイズニングの一種であるバックドア攻撃は、普段は正常に振る舞うため、従来の精度評価テストでは検知できず、説明可能性ツールやデータのクレンジングが必要となる。