AIモデルにおける「データポイズニング(毒入れ)」攻撃のリスクシナリオはどれか。

学習段階で汚染されると、モデル自体がバックドアを持つことになり、推論段階での防御が極めて困難になる高度な攻撃。