2つの確率変数X, Yの相互情報量I(X; Y)が0であるとき、どのようなことが言えるか。

相互情報量は変数間の依存度合いを測る尺度であり、0であることは両者が統計的に独立であることを意味する。