HOMELv010 AI(機械学習)モデルに対し、意図的にノイズを加えたデータを入力して誤認識を引き起こさせる攻撃を何と呼ぶか。 2026年3月8日 Adversarial Exampleは、人間には判別できない微細なノイズを画像等に付加することで、AIモデルの分類や判断を誤らせる攻撃手法である。 GraphQLを使用するAPIにおいて、複雑で深いネストを持つクエリを送信し、サーバーのリソースを枯渇させる攻撃はどれか。 外部ネットワークと内部ネットワークの間に配置され、攻撃に対する最初の防御線として機能する要塞化されたホストを何と呼ぶか。