Python数据.处理.分析.可视化解密大数据数据分析

数据探索之参数估计

2017-06-14  本文已影响669人  鱼心DrFish

统计学有两大主要分支,分别是描述性统计学和推断统计学。描述性统计学用于描述和概括数据的特征以及绘制各类统计图表。总体数据,往往因为数据量太大而难以被获取,所以就有了通过较小的样本数据推测总体特性的推断统计学。值得一提的是现今火热的“大数据”一词并不仅仅是指数据量大,在《大数据时代》一书中作者舍恩伯格强调“大数据”不是随机样本,而是所有数据,即总体,这与传统的统计研究方法是有很大区别的。

推断统计学的一个研究方向就是用样本数据估算总体的未知参数,称之为参数估计。如果是用一个数值进行估计,则称为点估计;如果估计时给出的是一个很高可信度的区间范围,则称为区间估计

本文先介绍了抽样分布和中心极限定理,并用蒙特卡洛方法进行模拟;然后引入置信区间的概念,并将之用于分析BRFSS数据中的BMI指数上。

首先依旧是导入相关Python模块和数据,其中brfss是专门用于读取和清理美国行为风险因素监控BRFSS调研数据的模块。

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
import brfss  # 该模块用于处理BRFSS数据

%config InlineBackend.figure_format = 'retina'

df = brfss.ReadBrfss()  # 读取BRFSS数据

这里主要关注反应胖瘦程度的BMI指数,并将这一数据存入bmi变量中,其数据量有40万之多。

bmi = df.bmi.dropna() # 取数据中的bmi列,并去除缺失值
len(bmi)

    405058



### 中心极限定理

如果我们将上述40万多份的BMI数据看成是总体,然后从中随机抽取n个数据组成一份样本,并计算该样本的均值。重复这一过程1000次,我们就得到了1000个样本的均值分布,即**抽样分布**。

抽样分布满足**中心极限定理**,即在样本量n越来越大时,均值的抽样分布将越来越接近正态分布,该分布的均值等于总体的均值;标准差,在这里也称为标准误差SE满足公式:

![](http:https://img.haomeiwen.com/i4420255/2e01ce2965de94a1.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
这里使用蒙特卡洛模拟的方法,在40万BMI数据中随机抽取n个数计算均值,并重复1000次,组成抽样分布。以下的`sampling_distribution()`函数用于实现这一模拟过程,并绘制抽样分布的直方图和ECDF图。



```python
def sampling_distribution(data, sample_size=20, bins=40):
    '''抽样分布模拟,输出均值、标准差以及直方图、ECDF图'''
    
    # 随机抽样
    sampling = [np.mean(np.random.choice(data, size=sample_size, replace=False)) for _ in range(1000)]  
    
    # 输出总体和抽样分布的均值、标准差
    mu = np.mean(data)
    se = np.std(data) / np.sqrt(sample_size)
    print('mean of sample means: %.2f' % np.mean(sampling))
    print('population means: %.2f' % mu)
    print('Standard deviation of sample means: %.2f' % np.std(sampling))
    print('Standard Error: %.2f' % se)

    # 绘制抽样分布的直方图、ECDF图
    fig = plt.figure(figsize=(16,5))
    p1 = fig.add_subplot(121)
    plt.hist(sampling, bins=bins, rwidth=0.9)
    plt.xlabel('sampling means')
    plt.ylabel('counts')
    p2 = fig.add_subplot(122)
    plot_ecdf(sampling, xlabel='sampling means', label='sampling ')
    sample = np.random.normal(mu, se, size=10000)
    plot_ecdf(sample, xlabel='sampling means', label='normal distribution')
    plt.show()
    
def ecdf(data):
    '''计算ECDF'''
    x = np.sort(data)
    y = np.arange(1, len(x)+1) / len(x)
    return (x,y)

def plot_ecdf(data, xlabel=None , ylabel='ECDF', label=None):
    '''绘制ECDF图'''
    x, y = ecdf(data)
    _ = plt.plot(x, y, marker='.', markersize=3, linestyle='none', label=label)
    _ = plt.legend(markerscale=4)
    _ = plt.xlabel(xlabel)
    _ = plt.ylabel(ylabel)
    plt.margins(0.02)

下面我们将样本量n分别取为10、20、100,进行三次模拟。

sampling_distribution(bmi, sample_size=10)

    mean of sample means: 27.95
    population means: 28.04
    Standard deviation of sample means: 2.04
    Standard Error: 2.10


![样本量为10的抽样分布](http://upload-images.jianshu.io/upload_images/4420255-01ff2a70f5ee81d6.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)


>```python
sampling_distribution(bmi, sample_size=20)
mean of sample means: 28.11
population means: 28.04
Standard deviation of sample means: 1.50
Standard Error: 1.49
样本量为20的抽样分布

sampling_distribution(bmi, sample_size=100)

    mean of sample means: 28.05
    population means: 28.04
    Standard deviation of sample means: 0.69
    Standard Error: 0.67



![样本量为100的抽样分布](http://upload-images.jianshu.io/upload_images/4420255-43f3f87a850a23dd.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)


观察上面的输出结果和图形,我们发现随着样本量的递增,抽样分布越来越靠近正态分布,其均值和标准差也越来越符合中心极限定理中给出的关系。

一般当n大于等于30时,样本均值的抽样分布近似为正态分布。此时我们可以用样本的均值来估计总体的均值,这就是点估计的一种最简单的方式。但从上述分布也可以看出,样本均值其实是以一定概率在总体均值附近浮动的,所以这就有了后面将要讲的置信区间。

关于中心极限定理,还有一点需要强调的是,无论变量原来的分布是什么样的,其均值的抽样分布在n足够大时都会接近正态分布。比如我们研究BRFSS数据中人们每周运动的总时间(单位:分钟),大部分人每周运动的时间少于500分钟,而极少数人能达到3000分钟,其直方图反应数据大部分集中在左侧,而右侧有一条长长的尾巴。


```python
exemin = df[df.exemin != 0].exemin.dropna()   # 提取锻炼时间数据,丢弃0或者缺失值
plt.hist(exemin,bins=40, range=(0,3000), rwidth=0.9)  # 绘制直方图
plt.xlabel('exercise mins per week')
plt.ylabel('counts')
plt.show()
人们每周运动时间的分布

显然这一数据分布并不满足正态分布,但是我们采用上述相同的方法模拟其样本均值的抽样分布,在样本量n为1000时,抽样分布与正态分布符合的非常好。可见中心极限定理并不要求变量原来分布的样子,这也正是其魅力所在。

sampling_distribution(exemin, sample_size=1000)

    mean of sample means: 499.54
    population means: 499.37
    Standard deviation of sample means: 23.60
    Standard Error: 23.75



![运动时间均值的抽样分布](http://upload-images.jianshu.io/upload_images/4420255-ef5ba0008e82e480.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)

### 正态分布的特性

既然中心极限定理中涉及了正态分布,我们就来看看其均值和标准差的一些性质。这里导入scipy的统计模块,使用`scipy.stats.norm()`模拟标准正态分布,即均值为0,标准差为1。使用`norm.pdf()`计算概率密度,并绘制概率密度函数(PDF)图。


```python
import scipy.stats
norm = scipy.stats.norm()  # 标准正态分布

x = np.arange(-5, 5, 0.02)
y = norm.pdf(x)  # 概率密度
plt.plot(x,y)
plt.axvline(x=0,ymax=0.95, linestyle='--', color='red', alpha=0.5)
plt.axvline(x=1,ymax=0.59, linestyle='--', color='green')
plt.axvline(x=-1,ymax=0.59, linestyle='--', color='green')
plt.axvline(x=2,ymax=0.16, linestyle='--', color='blue')
plt.axvline(x=-2,ymax=0.16, linestyle='--', color='blue')
plt.margins(0.02)
plt.show()

标准正态分布

PDF图中曲线下的面积代表了概率, 使用norm.cdf()可计算这部分面积,即累积概率分布。于是我们就可以得到变量距离均值在1个标准差范围内的概率为0.68,2个标准差范围内的概率是0.95,3个标准差范围内的概率是0.997。可见在正态分布中,数据主要集中在3个标准差之内。

print('1 sigma : %.3f' % (norm.cdf(1) - norm.cdf(-1)))
print('2 sigma : %.3f' % (norm.cdf(2) - norm.cdf(-2)))
print('3 sigma : %.3f' % (norm.cdf(3) - norm.cdf(-3)))

    1 sigma : 0.683
    2 sigma : 0.954
    3 sigma : 0.997


反过来,我们也可以通过概率来求变量分布的区间,这里使用`norm.interval()`,比如95%的情况下变量分布在-1.96到1.96之间,99%的情况下分布在-2.58到2.58之间。


>```python
norm.interval(0.95)
(-1.959963984540054, 1.959963984540054)

norm.interval(0.99)

    (-2.5758293035489004, 2.5758293035489004)



### 置信区间

在能够计算正态分布中一定概率下对应的变量区间后,我们再回到之前用样本均值估计总体均值时遗留的问题,即样本的均值围绕总体均值在一定范围内浮动的。我们需要估算总体均值在多大的概率下落在抽样的随机区间内,这就是置信区间。

我们仍然将40多万的bmi数据当成是总体,然后从中随机抽取样本量为100的数据,根据中心极限定理绘制抽样分布图如下。


```python
sample_size = 100    

# 计算总体的均值和标准差
mu = np.mean(bmi)
se = np.std(bmi) / np.sqrt(sample_size)
# 绘制正态分布的PDF
norm = scipy.stats.norm(mu, se)
x = np.arange(26, 31, 0.01)
y = norm.pdf(x)
plt.plot(x,y)

# 绘制抽样分布的直方图
sample_size = 100    
sampling = [np.mean(np.random.choice(bmi, size=sample_size, replace=False)) for _ in range(1000)]
plt.hist(sampling, bins=40, rwidth=0.9, normed=True, alpha=0.7)

plt.show()
n=100抽样分布

根据正态分布的性质,在95%的概率下,均值分布区间是(26.74, 29.35)。也就是说,在样本量为100时,我们有95%的信心相信总体均值落在26.74和29.35之间,这就是95%的置信区间。同理,99%的置信区间是(26.33, 29.76)。注意这是在大样本量的情况下,我们才能使用正态分布,而如果样本量n小于30,则需要采用t分布,此处就不展开了。

norm.interval(0.95)

    (26.738141245959351, 29.346706751112283)




>```python
norm.interval(0.99)
(26.328305902131977, 29.756542094939658)

区间估计的应用

回到本系列文章一直在探索的一个问题,即比较富人和普通人的BMI指数。此时,bmi数据不再当做总体看待,而是作为调查的样本,总体是BRFSS数据针对的全体美国人。首先将bmi数据按照收入等级分为两组,即富人bmi数据和普通人bmi数据。

df2 = df[['bmi', 'income']].dropna()  # 提取数据中bmi和收入水平income这两列,并忽略缺失值
bmi_rich = df2[df2.income == 8].bmi   # 收入水平为8级的,认为是富人
bmi_ord = df2[df2.income != 8].bmi    # 收入水平为1-7级的,认为是普通人群

以下定义了mean_ci()函数,根据置信区间的计算公式,计算95%置信度下均值所在的区间。

def mean_ci(data):
    '''给定样本数据,计算均值95%的置信区间'''
    
    sample_size = len(data)
    std = np.std(data, ddof=1)  # 估算总体的标准差
    se = std / np.sqrt(sample_size)  # 计算标准误差   
    point_estimate = np.mean(data)  
    z_score = scipy.stats.norm.isf(0.025)  # 置信度95%
    confidence_interval = (point_estimate - z_score * se, point_estimate + z_score * se)

    return confidence_interval

于是得到富人bmi95%的置信区间为(27.42, 27.49), 普通人bmi95%的置信区间为(28.51, 28.57)。这两个区间间隔的还比较远,数值上差不多有1这么多。所以我们可以比较有信心的得出富人更瘦的结论。

mean_ci(bmi_rich)

    (27.415906122294761, 27.485560606043915)




>```python
mean_ci(bmi_ord)
(28.509003170593907, 28.565637279855423)

但要注意了,以上之所以能得到这么肯定的结论,源于使用的样本数据量非常大,这大大缩小了置信区间的范围(这可以从中心极限定理中标准误差的公式看出)。现在让我们使用前500个数据,看看在样本较少时会发生什么情况。

mean_ci(bmi_rich[:500])

    (27.849838839563304, 28.791561160436636)




>```python
mean_ci(bmi_ord[:500])
(28.200546441671069, 29.303493558328935)

此时富人bmi95%的置信区间为(27.85, 28.79),而普通人bmi95%的置信区间为(28.20, 29.30),很明显这两个区间都变大了。尽管富人的bmi指数仍有相对较小的趋势,但是这两个区间有部分重合,这时我们就无法得出非常肯定的结论了。可见样本量在做判断时起着非常重要的作用,样本越大,判断越准确,这也是与我们常识相符的。

小结

在这一篇中,我们了解了抽样分布的概念,中心极限定理的含义,正态分布的概率分布,最重要的是使用置信区间的计算方法,通过样本数据估算总体的均值范围,至此我们进入了推断统计学的领域。

针对富人是否更瘦这个问题上,虽然使用了置信区间得出了较肯定的结论,但是仍然没有对富人更瘦这个假设做出明确的判断。在下一篇中我们将会讲到推断统计学的另一个领域:假设检验,即对参数的假设值进行决策,届时我们将和上述问题来个了断。


本文代码github

数据探索系列目录:

  1. 开篇:数据分析流程
  2. 描述性统计分析
  3. 统计分布
  4. 参数估计(本文)
  5. 假设检验

参考资料:

致谢:
最后还是非常感谢解密大数据社群的小伙伴们给我的支持和鼓励,让我们一起成长。


解密大数据社群公号
上一篇下一篇

猜你喜欢

热点阅读