初识深度学习

什么熵

2019-07-10  本文已影响0人  我爱麦芽糖

信息量

P(x_i)为概率,-logP(x_i)为信息量

相对熵(KL离散度)

交叉熵

D_{KL}(p||q)=\sum_{i=1}^np(x_i)log(p(x_i))-\sum_{i=1}^np(x_i)log(q(x_i))

= -H_{(x)}-\sum_{i=1}^np(x_i)log(q(x_i))

​ 由(D_{KL})\downarrow\Rightarrow0 可以得出 H_{(x)}=-\sum_{i=1}^np(x_i)log(q(x_i))

上一篇 下一篇

猜你喜欢

热点阅读