Copilotなどの生成AIアプリケーションにおいて、AIが誤った情報を事実のように生成してしまう現象を何と呼ぶか。

ハルシネーションとは、生成AIが事実に基づかない、または無関係な情報をあたかも真実であるかのようにもっともらしく生成してしまう現象である。