HOMELv006 2つの確率変数X, Yの相互情報量I(X; Y)が0であるとき、どのようなことが言えるか。 2026年3月13日 相互情報量は変数間の依存度合いを測る尺度であり、0であることは両者が統計的に独立であることを意味する。 事象Aが起きたという条件下で事象Bが起きる確率P(B|A)の定義式はどれか。 正方行列Aが特異行列(Singular Matrix)であるとはどういうことか。