LLMアプリケーションにおいて;「事実に基づかない回答(ハルシネーション)」を検知するために、回答の内容を外部の信頼できるデータベース(Wikipedia等)と照合する処理を何というか。

生成AIの回答を現実の事実(Ground)に結びつけ、信頼性を確保する。