モデルが特定のサブグループ(例:性別)に対して系統的に異なる予測を行うことで生じる倫理的問題を何と呼ぶか。

アルゴリズムのバイアスは、不適切な学習データや特徴量選択によって生じる公平性の欠如を指します。