モデルが予測した結果が「特定の属性(人種など)」に対して偏っている場合;予測結果の「閾値」をグループごとに微調整して公平性を確保する手法はどれか。

モデル自体は変えずに;出力の判断基準を調整することで公平性を担保する。