LLM(大規模言語モデル)を組み込んだアプリケーションにおいて、攻撃者がプロンプト入力によってモデルの制約を回避し、不適切な出力や内部情報を引き出す攻撃はどれか。

プロンプトインジェクションは、AIへの指示(システムプロンプト)を上書きまたは無視させるような入力を与え、開発者が意図しない動作をさせる攻撃である。