ChatGPTのような大規模言語モデル(LLM)に対し、特殊なプロンプトを入力して「爆弾の作り方」などの本来禁止されている出力を引き出す攻撃手法はどれか。

ジェイルブレイク(脱獄)プロンプトは、AIの安全フィルターや倫理規定を回避するように巧妙に設計された指示を与え、不適切な回答を生成させる攻撃である。