モデルが予測した結果が「特定の属性(人種など)」に対して偏っている場合に;学習前の「データ」自体を調整して、属性間の統計的均衡を保つ手法はどれか。

学習の段階に入る前に、データセットの偏りを除去する公平性へのアプローチ。