モデルの予測結果に対して、各特徴量がどの程度寄与したかを説明するための機能はどれか。

モデル解釈可能性機能(SHAPやLimeなど)を用いることで、特徴量の重要度や寄与度を説明できる。