注意機構(Attention)において、Query、Key、Valueの3つを用いて計算される手法はどれか。

Transformerで採用されているこの手法は、スケーリングにより勾配を安定させる。