HOMELv067 AIモデルに対する「敵対的攻撃(Adversarial Attack)」のうち、人間には判別できない微細なノイズを入力画像に加えることで、AIに誤った分類をさせる攻撃を何と呼ぶか。 2026年3月3日 回避攻撃は、学習済みモデルの判定ロジックを欺くための「敵対的サンプル」を作成し、入力することで誤分類を誘発する手法。 インシデント対応の「教訓(Lessons Learned)」フェーズにおいて、作成されたレポートが最も活用されるべきタイミングはいつか。 クラウド環境において、攻撃者が自動スケーリング機能を悪用し、大量のリクエストを送り続けてリソースを無限に拡張させ、利用者に莫大な料金を請求させる攻撃はどれか。