HOMELv034 TransformerのAttention計算量はシーケンス長の( )に比例して増大するため;超長文の処理には工夫が必要である。 2026年1月25日 これが長文処理における最大のボトルネックとなっている。 LLMに特定の専門知識(法律や医学など)を教え込むために;少量の高品質な専門データで追加学習することを何というか。 画像の中の物体の「境界線(エッジ)」を抽出するために用いられる;古典的な画像処理フィルタはどれか。