大数据,机器学习,人工智能机器学习与数据挖掘程序园

熵之道

2019-02-24  本文已影响19人  Mattina

熵的定义如下:

熵.png
条件熵的定义如下:
条件熵.png
H(D)和H(D|A)若从训练集得到,则分别称之为经验熵经验条件熵

互信息 = H(D) - H(D|A)

信息增益 = 经验熵 - 经验条件熵;

互信息信息增益理论上是等价的,只不过信息增益是从训练集中计算得到,是一种经验值,互信息是一种理想值。

交叉熵 与 相对熵/KL散度(摘自github imhuay


KL 散度在信息论中度量的是哪个直观量?

KL散度的性质

交叉熵(cross-entropy):

信息量,信息熵,交叉熵,KL散度和互信息(信息增益) - CSDN博客
交叉熵 与 KL 散度的关系

上一篇 下一篇

猜你喜欢

热点阅读