相互情報量について

可視化の授業で習った説明がわかりやすかったけど、
ちょっと気になった。
まず、相互情報量とは以下。

 H(X,Y) = \sum_{x \sub X} \sum_{y \sub Y} p (X \wedge Y) log \frac{p(X \wedge Y)}{p(X)p(Y)}

この対数部分の真数である
 h = \frac{p(X \wedge Y)}{p(X)p(Y)}
について考察する。
以下のような状況を考える。(授業での板書より)

このとき、XとYは独立ではなく、ともにcという事象をとる確率がある。
このときhを計算すると、
 h = \frac{P(X \wedge Y)} {P(X)P(Y)} = \frac{1}{P(c)}
P(c)は共通におこる事象の確率だから、相互情報量の定義に即して述べれば、
マイナーな趣味を共有してる友達どうしの片方を知るほうが、
より一般的な属性(日本人とか)を共有する人同士の片方を知るより情報量が大きい。
」とでもなるか。
日本語があまりうまくないですが。

ちなみにXとYが独立なときはh=1になり、対数をとるとこれはゼロになる。=>よって相互情報量はゼロ。