大規模言語モデル(LLM)において、事実とは異なる情報をあたかも真実のように生成してしまう現象を何と呼ぶか。

ハルシネーション(幻覚)は、生成AIがもっともらしい嘘を出力してしまう現象であり、利用時の注意点の一つである。