LLMの運用において;特定の「有害な出力」が生成された際に;それを自動的に遮断して定型の安全な回答に差し替える処理を何というか。

モデルの安全性を担保するための最後の防衛ライン。