機械学習モデルに対して、ノイズを加えたデータを入力し誤認識させる攻撃はどれか。

Adversarial Examples(対抗的サンプル)は、誤認識させるためにノイズを加える攻撃