Attention機構の中でも、Query、Key、Valueの全てが同じ入力から生成されるものを何と呼ぶか。

Self-Attentionは系列内の自己相関を計算し、文脈を捉える。