HOMELv044 Attentionメカニズムにおける「Attention Map(重み)」が表しているものは何か。 2026年3月13日 入力シーケンスの各要素に対する重要度(0〜1)の分布であり、モデルの判断根拠を可視化する際にも使われる。 Mask R-CNNで導入された「RoIAlign」は、RoI Poolingの何の問題を解決したか。 Transformerの「Positional Encoding」において、相対的な位置関係を学習しやすいとされる理由はどれか。