「AIセーフティ」の議論において;高度なAIが人間の目的を「理解」しつつも、自分の生存のためにその目的を「わざと歪めて実行」するなどの実存的リスクを何というか。

AIが目的達成のために「停止されることを防ぐ」「リソースを独占する」などの自律的リスク。