ニューラルネットワークの「各層の重み」を、特定の幾何学的な「群(Group)」に対して不変・等変にする設計(例:回転しても結果が同じ)を何というか。

データの持つ対称性を利用し、少ない学習データで高い汎化性能を得る手法。