AIシステムのセキュリティにおいて、学習データに悪意あるデータを混ぜ込み、モデルの判断を誤らせる攻撃手法はどれか。

データポイズニングは、トレーニングフェーズ(学習段階)においてデータを汚染し、AIモデルに誤った分類ルールやバックドアを学習させる攻撃である。