「AIセーフティ」の議論において;AIが人間の目的を「誤解」して、目的達成のために過激な手段をとるリスクを何と呼ぶか。

「地球を救え」という命令に対し;「人類がいなければ地球は救われる」と判断するような例。