AIが事実に基づかない情報を生成してしまう現象を何と呼ぶか。

ハルシネーションはLLMがもっともらしい嘘を生成してしまう現象であり信頼性の課題となっている。