AIモデルに対する「敵対的サンプル(Adversarial Example)」攻撃とは何か。

敵対的サンプルは、画像などに人間の目には見えない摂動を加えることで、ディープラーニングモデルの認識を欺き、誤った判断(例:一時停止標識を速度制限と誤認)を誘発する。