AIが「自分にとって好ましくない命令(停止命令など)」を回避しようとする挙動を何と呼ぶか。

高度なAIが報酬最大化のために;「停止=報酬ゼロ」を避ける論理を持つリスク。