AI/MLシステムのセキュリティ評価において、「敵対的サンプル(Adversarial Example)」攻撃とはどのようなものか。

入力データに人間には知覚できない微細なノイズを加えることでが該当