Machine Learning & Recommendation & NLP & DL机器学习与数据挖掘

机器学习概率统计知识(1): 无偏估计与有偏估计

2019-09-26  本文已影响0人  阿瑟_TJRS

引言

在机器学习中经常会接触到无偏估计和有偏估计这两类概念,本文汇总了多篇博客是讲解内容,旨在深入透彻地理解这两个概念

有偏估计(biased estimate)是指由\color{red}{样本值求得的估计值}\color{blue}{待估参数的真值}之间有系统误差,其期望值不是待估参数的真值。
在统计学中,估计量的偏差(或偏差函数)是此估计量的期望值与估计参数的真值之差。偏差为零的估计量或决策规则称为无偏的。否则该估计量是有偏的。在统计学中,“偏差”是一个函数的客观陈述。

一句话概括就是,有偏估计是在样本估计值和真值间存在误差的估计\color{red}{\mathbb{E}(\hat{\theta} )\neq \theta }

\color{red}{D_{有偏}(X)=\sigma ^2=\frac{1}{n}\sum_{i=1}^{n}(x_i-\hat{\mu})^2}
\hat{\mu}=\frac{1}{n}\sum_{i=1}^nx_i
我们在日常统计中常用的样本方差即是有偏估计量

无偏估计是样本统计量来估计总体参数时的一种无偏推断。估计量的数学期望等于被估计参数的真实值,则称此此估计量为被估计参数的无偏估计,即具有无偏性,是一种用于评价估计量优良性的准则。
无偏估计的意义是:\color{red}{在多次重复下,它们的平均数接近所估计的参数真值。}
无偏估计常被应用于测验分数统计中。

\color{red}{D_{无偏}(X)=\sigma ^2=\frac{1}{n-1}\sum_{i=1}^{n}(x_i-\hat{\mu})^2}

假如,我们可以采样无穷无尽的样本,那么理论上下面的估计就是精确的,
\begin{equation}\begin{aligned}\sigma^2 =&\, \mathbb{E}\left[(x - \mu)^2\right]=\lim_{n\to\infty}\frac{1}{n}\sum_{i=1}^n \left(x_i - \hat{\mu}\right)^2\\ \mu =&\, \mathbb{E}[x]=\lim_{n\to\infty}\frac{1}{n}\sum_{i=1}^n x_i\end{aligned}\end{equation}
这也可以理解为,当样本数趋于无穷时,有偏估计和无偏估计等价

分析讨论

为什么分母项变成n-1就成了无偏估计呢?

下面我们来证明其是无偏估计和有偏估计!

证明关键在于说明,计算样本估计量的期望值,将该期望值与参数真值进行比较,即计算/证明\mathbb{E}(\hat{\theta} )\neq \theta。 与上面所提到的样本无穷的假设相较,我们的实际计算中是只能采样一批数据进行计算,

n是一个固定的数字,比如我们随机梯度下降时,用一个batch的样本的平均梯度,来作为整体样本的梯度估计。另一方面,我们也不是估计一次就完事了,
我们可能会估计很多次,即首先采样n个样本,算一次得到μ_1σ^2_{有偏1};
再随机采样n个样本算一次得到μ_2σ^2_{有偏_2},依此类推得到(μ_3,σ^2_{有偏_3}),(μ_4,σ^2_{有偏_4}),…,我们想知道的是:
\begin{equation}\begin{aligned}\mu &\xlongequal{?}\mathbb{E}\left[\hat{\mu}\right] = \lim_{N\to\infty}\frac{1}{N}\sum_{i=1}^N \hat{\mu}_{i}\\ \sigma^2 &\xlongequal{?}\mathbb{E}\left[\hat{\sigma}^2_{\text{有偏}}\right]=\lim_{N\to\infty}\frac{1}{N}\sum_{i=1}^N \hat{\sigma}^2_{\text{有偏},i} \end{aligned}\end{equation}
苏剑林. (2019, Jun 19). 《简述无偏估计和有偏估计 》[Blog post]. Retrieved from https://spaces.ac.cn/archives/6747

\color{red}{即对各次抽样的估计量计算平均,取期望值}

也就是说,“有限平均”的“无限平均”,是否等于我们最终要求的平均?

这里我们取用n=2,每次只取两个样本,来以实际例子的讨论无偏估计和有偏估计。

直观来看,用有限样本的上式来估计方差,由于样本少了,波动也会变小,所以方差估计也会偏小,这就是所谓的有偏
极端情况下,如果只采样一个样本进行估计呢?估计出来的方差就是0了,不管怎么重复实验,结果还是0,我们总不能说整批样本的方差一定就是0吧?这便是有偏估计的最简单例子。
并不是所有的有偏估计都可以像方差一样,简单将n换成n−1就变为无偏估计了。一般情形下,我们想要估计的量,连估计本身都很难,更不要说有偏还是无偏了,所以要对一般的估计量消除偏差,都得具体问题具体分析了

推导证明

我们来尝试证明
\mathbb{E}(\hat{\sigma}^2)=\sigma^2
\mathbb{E}(\hat{\sigma}^2)=\mathbb{E}(\frac{1}{n-1}\sum_{i=1}^{n}(x_i-\hat{\mu})^2)
=\mathbb{E}(\frac{1}{n-1}\sum_{i=1}^{n}(x_i^2+\hat{\mu}^2-2x_i\hat{\mu}))
=\frac{1}{n-1}\mathbb{E}(\sum_{i=1}^{n}(x_i^2)-n\hat{\mu}^2)
=\frac{1}{n-1}(\sum_{i=1}^{n}\mathbb{E}(x_i^2)-n\mathbb{E}(\hat{\mu}^2))
\color{red}{D(x)=E(x^2)-E(x)^2}
代入上式可得:
=\frac{1}{n-1}(\sum_{i=1}^{n}(D(x_i)+E(x_i)^2)-n\mathbb{E}(\hat{\mu}^2))
=\frac{1}{n-1}(\sum_{i=1}^{n}(\sigma^2+\mu^2)-n(D(\hat{\mu})+E(\hat{\mu})^2))
\color{blue}{D(\hat{\mu})=D(\frac{1}{n}\sum_{i=1}^nx_i)=\frac{1}{n}D(x_i)}//总样本方差与抽样方差相等
=\frac{1}{n-1}(\sum_{i=1}^{n}(\sigma^2+\mu^2)-n(\frac{1}{n}\sigma^2+\mu^2))
\color{red}{=\sigma^2}

通过上式也直接证明了n-1式的无偏估计特性

在各类科学计算工具包中,对这两种估计都有不同的实现,使用时应该根据需要选择区分。

参考资料

https://blog.csdn.net/cx1165597739/article/details/93330524
https://blog.csdn.net/weixin_31866177/article/details/89003517
苏剑林. (2019, Jun 19). 《简述无偏估计和有偏估计 》[Blog post]. Retrieved from https://spaces.ac.cn/archives/6747

上一篇下一篇

猜你喜欢

热点阅读