AIの学習データに偏りがあるために、特定の集団を不当に差別する結果が出ることを防ぐ考え方はどれか。

性別や人種などの属性によるバイアスを排除し、倫理的な判断を保証する取り組みである。