HOMELv053 TransformerのAttention層において;計算量を削減するために「フーリエ変換」を用いて畳み込みを行うアーキテクチャはどれか。 2026年1月25日 Attention機構をフーリエ変換で置き換え;処理速度を飛躍的に高める試み。 LLMの「内部知識」を修正するため;特定の事実(例:大統領の名前)に関連するニューロンの重みだけをピンポイントで書き換える技術を何というか。 物体検出において;重なり合った複数の物体を一つ一つ正確に識別し;それぞれに個別のIDを割り当てる高度なタスクを何というか。