AIが学習データにない情報を、もっともらしく事実であるかのように出力してしまうことを何と呼ぶか。

LLMにおいて、誤った知識や架空の出来事を堂々と回答する現象を指す。