情報理論において、確率分布PとQが一致するとき、KLダイバージェンスD(P||Q)の値はいくつになるか。

2つの確率分布が完全に等しい場合、その間の情報量の差(距離のようなもの)は0になる。