AIモデルに対する「敵対的攻撃(Adversarial Attack)」のうち、人間には判別できない微細なノイズを入力画像に加えることで、AIに誤った分類をさせる攻撃を何と呼ぶか。

回避攻撃は、学習済みモデルの判定ロジックを欺くための「敵対的サンプル」を作成し、入力することで誤分類を誘発する手法。