AIシステムの開発ライフサイクルにおいて、システムが特定の人口統計グループ(性別、人種など)に対して不利な結果を出さないことを確認する作業は、責任あるAIのどの原則に対応するか。

公平性は、AIシステムがすべての人を公平に扱い、特定のグループに対するバイアスや差別を含まないようにすることを求める原則である。