HOMELv027 Self-Attentionメカニズムの計算量は、入力シーケンス長 $N$ に対してどのように増加するか。 2026年1月25日 Attentionは全てのトークン(画素)同士の相互関係を計算するため、行列積の計算量がシーケンス長の二乗($N^2$)に比例し、高解像度画像への適用でボトルネックとなる。 画像の「アフィン変換」行列において、行列式(determinant)の値が負になった場合、どのような変換が含まれていることを意味するか。 オプティカルフロー推定の「Lucas-Kanade法」において、解を求めるために仮定していることはどれか。