LLMの運用において;特定の「不適切な画像や文章」が生成されるのを防ぐために、生成プロセスの中間段階で特徴量を監視し、問題があれば中断するセキュリティ機能を何というか。

出力が出る「直前」に介入し、安全性をリアルタイムで担保する防御策。