信息量、熵、KL散度和交叉熵

2019-11-26  本文已影响0人  BinJiang

信息量:

X是一个离散型随机变量,概率分布函数p(x)=Pr(X=x),事件X=x0的信息量为:

对于某件事情,可能有n种可能,每一种可能都带有一个概率p(xi),这样就可以考虑用一个量来计算这件事情的信息量。这个很好理解,直接把这个事情可能发生的各种事件信息量加起来就可以了。

KL散度(相对熵)

相对熵又称KL散度,如果我们对于同一个随机变量x有两个单独的概率分布P(x)和Q(x),我们可以使用KL散度来衡量这两个分布的差异。

交叉熵

KL散度是交叉熵和信息量公式的组合

交叉熵的公式:


参考链接:
https://blog.csdn.net/tsyccnh/article/details/79163834

上一篇 下一篇

猜你喜欢

热点阅读