情報理論における「相互情報量 I(X;Y)」とエントロピーH(X), 条件付きエントロピーH(X|Y)の関係式はどれか。

相互情報量は、Yを知ることでXの不確実性(エントロピー)がどれだけ減少したかを表す量である。