大师兄的贝叶斯网络学习笔记(五):贝叶斯网络基础(五)

2025-08-14  本文已影响0人  superkmi

大师兄的贝叶斯网络学习笔记(四):贝叶斯网络基础(四)
大师兄的贝叶斯网络学习笔记(六):贝叶斯网络(一)

五、信息论基础

1. Jensen不等式
  • 若式中的等号只在x_1=x_2时才成立,则成f在区间I上严格凹。
  • 如果f是凹函数,则-f时凸函数。
  • 若f严格凹,则上式的等号只有在下下列条件满足时才成立:p_i . p_j \neq 0,则必有x_i=x_j
2. 熵
  • 上式的对数若以2为底,则熵的单位是比特。
  • 若以e为底,则单位是奈特。
3. 联合熵、条件熵和互信息
  • 后者是在已知Y取某一特定值y时X的条件熵,或者说是在已知Y=y后,X剩余的不确定性。
  • H(X|Y)则是在位置Y的取值时,对观测到Y的去之后X剩余的不确定性的一个期望。
  • H(X|Y=y)可能会比H(X)大,即知道Y的具体取值Y=y可能增大对X的不确定性。
  • H(X|Y)永远不大于H(X),即平均来说,知道Y将不会增加X的不确定性。
- $x_1 x_2$ P(Y)
y_1 0 \frac{3}{4} \frac{3}{4}
y_2 \frac{1}{8} \frac{1}{8} \frac{1}{4}
P(X) \frac{1}{8} \frac{7}{8}
  • H(X) = -\frac{1}{8}\log\frac{1}{8}-\frac{7}{8}\log\frac{7}{8}=0.544
  • H(X|Y=y_1)=-0\log0-1\log1=0
  • H(X|Y=y_2)=-\frac{1}{2}\log\frac{1}{2}-\frac{1}{2}\log\frac{1}{2}=1
  • H(X|Y)=\frac{3}{4}H(X|Y=y_1)+\frac{1}{4}H(X|Y=y_2)=0.25
  • I(X;Y)=\sum_{X,Y}P(X,Y)log\frac{P(X,Y)}{P(X)P(Y)}
  • I(X;Y)=I(Y;X)
  • H(X,Y)=H(X)+H(Y|X)=H(Y)+H(X|Y)
  • I(X;Y)+H(X,Y)=H(X)+H(Y)
4. 相对熵
  • 其中约定:0\log\frac{0}{q};p\log\frac{p}{0}=\infty,\forall>0
  • KL(P,Q)又被称为P(X)Q(X)之间的Kullback-Leibler距离,但严格意义上并不是真正的距离,因为KL(P,Q)\neq KL(Q,P)
  • 其中,当且仅当P与Q相同,即P(X=x)=Q(X=x),\forall x\in\Omega_X时等号成立。
5. 互信息与变量独立
  • I(X;Y)\geq0
  • H(X|Y)\leq H(X)
  • 上面两式当且晋档X与Y相互独立时等号成立。
  • I(X;Y|Z)\geq 0
  • H(X|Y,Z)\leq H(X|Z)
  • 上面两式当且仅当X\perp Y|Z时等号成立。
上一篇 下一篇

猜你喜欢

热点阅读