AI/MLシステムのセキュリティ評価において、「データポイズニング(Data Poisoning)」と「敵対的サンプル(Adversarial Example)」の違いは何か。

データポイズニングは「学習フェーズ」で訓練データを汚染してモデル自体を改ざんする攻撃が該当