HOMELv006 自然言語処理における「Transformer」モデルが採用している、入力文中の単語間の関係性を捉えるための機構はどれか。 2026年3月11日 Attention(注意)機構は、文中のある単語が他のどの単語と強く関連しているかを重み付けして計算する仕組みである。 MindSporeにおいて、学習済みモデルを軽量化(量子化など)するためのツールキットはどれか。 Ascend 310プロセッサのAI Coreに搭載されている、行列積和演算を高速化するための専用ユニットのサイズはどれか(fp16の場合)。