070 模型基础

2020-06-20  本文已影响0人  快乐公兽

背景

机器学习中很多基础知识,笔记加深印象
后续持续更新……


评估指标

AUC

正例预估大于负例的概率,横坐标真正率、纵坐标假正率

logloss

真实label和预估值间的交叉熵
p = p(y=1|x)
y=1时,p(y=1|x)=p^y
y=0时,p(y=0|x)=(1-p)^{1-y}
合并为一个式子就是 p(y|x)=p^y*(1-p)^{1-y}
max(p(y|x))=min(-log(p(y|x)))
对每个样本来说,代价函数可以写为 -y_i*log(p_i) - (1-y_i)*log(1-p_i)
最小化损失函数 min(-\sum_{i=1}^n{[y_i*log(p_i) + (1-y_i)*log(1-p_i)]})

最大似然估计

对于n个样本,正样本数为k,最大似然函数可以写为
L(\theta) = p^k*(1-p)^{n-k}
max(L(\theta)) = max(log(L(\theta))) = max(k*log(p)+(n-k)*lop(1-p)) = min(-\sum_{i=1}^n{[y_i*log(p_i) + (1-y_i)*log(1-p_i)]})

交叉熵、相对熵(KL散度)区别
H(x)=-p(x)*log(p(x))
D_{KL}(p||q)=\sum_i^n{p(x_i)*log(\frac{p(x_i)}{q(x_i)})}=p(x)*log(p(x))-p(x)*log(q(x))
KL散度 = -熵 + 交叉熵

AUC和logloss区别

AUC注重序,预估值绝对值的大小不重要,logloss注重预估值和真实值的差异,目标是真实值和预估值差异变小
模型一般将logloss作为优化目标,结果用AUC指标来评估


偏差&方差

过拟合和欠拟合

过拟合解决方法


DNN相关

DNN中一些不容易理解的点

梯度爆炸

梯度爆炸

梯度消失

BN作用和原理

连续特征和离散特征

连续特征

海量离散特征+简单模型 tradeoff 少量连续特征+复杂模型

上一篇 下一篇

猜你喜欢

热点阅读