HOMELv020 大規模言語モデル(LLM)において、事実とは異なる情報をあたかも真実のように生成してしまう現象を何と呼ぶか。 2026年3月14日 ハルシネーション(幻覚)は、生成AIがもっともらしい嘘を出力してしまう現象であり、利用時の注意点の一つである。 稼働率0.9の装置を2台並列に接続した場合、システム全体の稼働率はいくつになるか。 標的型攻撃において、ターゲット企業と取引のある中小企業などを経由して、本来のターゲットに侵入する手口はどれか。