攻撃者が、機械学習モデルの訓練データに悪意のあるデータを混入させ、特定の条件下で誤った判断を下すように仕向ける攻撃(バックドア設置)はどれか。

攻撃者が、機械学習モデルの訓練データに悪意のあるデータを混入させ=データポイズニング