AIが学習データにない、もっともらしい嘘(事実とは異なる内容)をつく現象はどれか。

大規模言語モデルが事実に基づかない情報を自信満々に生成する現象を幻覚(ハルシネーション)という。