HOMELv020 Vision Transformerにおける「Inductive Bias(帰納バイアス)」の欠如とは何を意味するか。 2026年1月25日 CNNは構造的に局所結合や重み共有を持つが、ViTは全結合に近いAttention構造のため、画像特有の性質(局所性等)を事前知識として持たず、大量のデータで学習させる必要がある。 ラドン変換の逆変換において、単純な逆投影(Back Projection)だけではボケが生じるため、通常適用される手法は何か。 レベルセット法(Level Set Method)において、輪郭のトポロジー変化(分裂や結合)を自然に扱える理由は何か。