AIモデルに対する「データポイズニング(Data Poisoning)」攻撃とは何か。

AIの学習段階を狙い、誤った分類をさせるように仕向ける攻撃。バックドアを仕込むことなどが可能になる。