机器学习-算法理论

Entropy,Gini ,Information gain

2021-09-10  本文已影响0人  shudaxu

Entropy


GINI impurity

Gini impurity可以理解为熵模型的一阶泰勒展开。所以也叫GINI不纯度。越“纯”即越确定,gini数值越小。这点与entropy是一致的。
Gini(X) = \sum_i^k p(x_i)(1-p(x_i)) = 1 - \sum_i^k p(x_i)^2
H(X) = - \sum_i^k p(x_i) log(p(x_i))对其中log的部分在x_0=1处做一阶段泰勒展开:
log(x) = log(x_0) + log'(x_0) (x - x_0)【一阶展开】
带入x_0=1即可得到log(x) = x - 1【带入数据点】
得到Gini(X)=- \sum_i^k p(x_i) (p(x_i) - 1)
= \sum_i^k p(x_i)- \sum_i^k p(x_i)^2
= 1 - \sum_i^k p(x_i)^2【概率sum to 1】

Gini Index(Coefficient)

注意,gini 系数与gini 不纯度是不一样的概念。


"单一"变量Entropy

研究单一变量。下述p,q等概率分布(密度函数),描述的都是对同一个变量 x的密度,譬如p(x_i),q(x_i)对应的是同一个x_i,这里单一是带引号的,因为多个变量编码组成的变量,也可以算作“单一”变量,譬如32位整数可以当作32个2维0,1变量编码组成的“单一”变量。


多变量 entropy,information gain

这里Y,X对应的是不同的变量(事件),条件熵,联合熵基本也对应条件概率,联合概率

Jensen's inequality

Refer:
Entropy,Gini,
https://zhuanlan.zhihu.com/p/74930310
and mutual information
[https://en.wikipedia.org/wiki/Mutual_information#Relation_to_conditional_and_joint_entropy]

Taylor Expansion of Entropy
https://www.programmersought.com/article/85613955092/

互信息,图示,类似概率
https://www.zhihu.com/question/39436574

DKL,Information Gain
https://blog.csdn.net/tiandiwoxin92/article/details/78244739

上一篇下一篇

猜你喜欢

热点阅读