机器学习-算法理论

Variance in GLM with penalty

2021-07-21  本文已影响0人  shudaxu

理解

estimator param的variance到底意味着什么,我们为什么需要研究它?当代工业界复杂模型(namely DNN)的variance如何,为何需要Shrinkage,bias&variance与模型复杂度,样本包含信息量的关系?

Ridge Regression[1][2]

Logistics Regression with l2 penalty

由于Fisher Information是对于无偏估计量,可以用\mathbb I^{-1}来计算variance的下界(可见:https://www.jianshu.com/p/1dbd868e541a)。所以对于有偏估计来说,严格意义上来讲我们不能此来做variance的估计。
TODO
PS:由于上述的penalty都和\beta大小有关,所以是量纲敏感的,因此我们对于这种模型通常都要做归一化

Refer
[1],ridge regression中相关推导
Lecture notes on ridge regression

[2]
shrinkage 方向:
PCA与样本协方差:
https://zhuanlan.zhihu.com/p/132275334

[3]
Shrinkage estimator:
https://en.wikipedia.org/wiki/Shrinkage_(statistics)
sample variance 的估计量:选择除数以达到更小的variance
https://en.wikipedia.org/wiki/Mean_squared_error#Variance

上一篇下一篇

猜你喜欢

热点阅读