AI(機械学習)モデルに対し、意図的にノイズを加えたデータを入力して誤認識を引き起こさせる攻撃を何と呼ぶか。

Adversarial Exampleは、人間には判別できない微細なノイズを画像等に付加することで、AIモデルの分類や判断を誤らせる攻撃手法である。