人には判別できない微小なノイズを加えて、モデルを誤認識させる攻撃を何と呼ぶか。

敵対的サンプル(Adversarial Example)を作成し、深層学習モデルの脆弱性を突いて意図的に誤分類を引き起こす攻撃手法。