「AIの安全性」において;AIが人間の指示の「文字通り」の意味を解釈し、壊滅的な結果を招くリスク(例:ペーパークリップ最大化)を何と呼ぶか。

人間が意図した真の目的と、AIに与えた報酬関数が乖離している問題。