Attentionメカニズムにおいて、Query、Key、Valueを用いた重み付け計算の核心となる演算はどれか。

Scaled Dot-Product Attentionでは、QueryとKeyの内積(ドット積)計算により類似度を求め、それを基にValueを重み付け加算する。