LLMアプリケーションにおいて;出力された回答が「特定の倫理ガイドライン」に違反していないかを、リアルタイムで別のLLMがスコアリングする仕組みを何というか。

安全性を数値化し;一定の基準を超えた場合にのみ出力を許可する。