机器学习与数据挖掘深度学习-推荐系统-CV-NLP机器学习与计算机视觉

偏差和方差

2017-06-06  本文已影响94人  西风酹江月

过拟合会出现高方差问题,此时模型在训练集上错误率极低,但是在测试集上表现很差,模型把训练集里面的噪声都当成了真实的数据分布特征,导致泛化性能不好。
欠拟合会出现高偏差的问题。此时,训练样本太少,导致模型不足以刻画数据分布,表现在训练集上都会出现较高的错误率。

image.png

下图中用了三个模型来拟合训练集的样本。训练数据是随机生成的x,y,左图用了一个线性模型导致结果欠拟合——它无法捕捉数据中的曲率信息。中图采用了二次模型,很好反映了数据中的二次关系,且在测试集上表现良好。右图采用了9阶多项式模型,虽然得出的解可以精确地穿过每一个训练数据点,但是很显然,模型得到了一个数据集上实际并不存在的深谷,拟合曲线急剧的变化,往往意味着过拟合的产生。在测试数据集上通常不会有好的表现。

image.png

提高机器学习模型泛化能力的思想可以追溯到托勒密时代的哲学思想,现在通常被简称为奥卡姆剃刀(Occams‘s razor)。该原则指出,在同样能够解释一直观测现象的假设中,我们应该挑选最简单的哪一个。
如何避免过拟合和欠拟合?
避免欠拟合:
1)寻找更好的特征,具有代表性;
2)用更多的特征,增大输入向量的维度
避免过拟合:
1)增大数据集合 - 使用更多的数据,噪声的比重减少

image.png
2)减少数据特征 - 减少数据维度
3)正则化方法 - 增加正则项
4)交叉验证的方法
参考文献:
1、深度学习 https://github.com/exacity/deeplearningbook-chinese
2、http://scott.fortmann-roe.com/docs/BiasVariance.html
上一篇 下一篇

猜你喜欢

热点阅读