AIシステムが差別的な判断をしないように、特定の属性を学習から意図的に隠すことを何と呼ぶか。

機密属性(人種等)をモデルから見えないようにすることで、直接的な差別を防ぐ手法である。