统计学

Z-Test与T-Test的区别

2018-12-03  本文已影响59人  冯昉中

推论统计,提到假设检验,从脑海里一跃而出的便是 Z-Test 与 T-Test。可能在大学里学习时对这个两个检验方法囫囵吞枣,现在重新理解,更是疑问重重。

都知道, Z-Test 与 T-Test 用于正态分布的统计检验,大致也能知道T或Zvalue 大于查表后的某个数,便是统计显著差异,需要拒绝H_0,百度搜索也能得知 Z-Test 与 T-Test 的区别:

  1. Z-Test 用于大样本(n>30),或总体方差已知;
  2. T-Test 在小样本(n<30),且总体方差未知时,适用性优于Z-Test,而在大样本时,T-Test 与 Z-Test 结论趋同。

不禁要问,为什么?为什么?为什么?

这里,尝试从假设检验,Z与T的含义来重新理解。

假设检验

假设

统计,分为描述统计与推论统计。顾名思义,描述统计如同画画似的,将一个事务的特征用数字描绘出来,每一幅数码相片背后是一组组的数字,将这组数字经过总结(我认为总结便是降低维度), 变成容易记忆的数字,这些数字能在人的脑海里刻画出一个可识别的形象。那便是描述统计。

推论统计,显然是在描述差异,寻找规律。回归是在求同,寻找规律。聚类,是在求异,寻找差异。那么假设检验便是来分别同与异。H_0是同,H_1是异。

"幸福的家庭大都相似,不幸的家庭却各有不同"---托尔斯泰

用True or False 来求证因何而异实在是太困难了,不能证明,便可证伪。不同,便是异,Genius!假设检验便是在做“不同”的证明,不能证明“不同”,便是不能拒绝H_0,显著“不同”,便是拒绝H_0,如此推断那是H_1

假设检验的目标内容

统计中,比较的并不是一个值,而是一组数的特征。两组数的分布不相同,那么这两组数不同,这是我的定义。最常见,最基本的分布为正态分布,其他的分布总可以变形转换为正态分布,所以在统计研究时首要研究的便是正态分布。

正态分布由两个特征值组成mean(平均数) 和 \sigma(离散值),用这两个值可以通过numpy来拟合出一个正态分布

np.random.normal(mean,std,size)
image.png

两组数若符合正态分布,且相同,那么均值与离差相同,反之只要证明均值不同,则说明两组数不同。由此,我认为假设检验的目标内容是所测试的数据的均值等于目标均值的可能性

总体(Population)与抽样(Sample)

比较两组数字,一定是比较的两组数字的总体,若知道两组数字的总体,那么也无需要假设检验的推论,直接画图看就好了,重叠为相同,不重叠为不同。然而,我们很难知道总体,难道说非要把全世界人与猩猩都统计一遍来证明两者之间的身高显著不同吗?学习,大体上在学习样本,由样本去推断总体。

记得年前去澳门,赌大小,总体上赌大与小的概率相同,50%(如果忽略豹子通杀),但事实上,连续在赌场看3天开大、开小的概率(统计从早晨开始,累计该桌面的输赢,至晚上止,第二天重新计算),竟然经常大幅偏离50%,甚至会看到30%小,70%大这样的诡异情形。赌客押注往往也不是采用均值回归的策略,而多采用Momentum趋势策略。当然,可以去diss赌客,最终是输的,因为口袋里钱总额的限制,因为有了豹子通杀,但是观察下来采用Momentum策略的赌客好像玩的时间更长一些(直观的感觉)。

抽样与总体不相同,抽样数据的均值和离散程度与总体数据的均值和离散程度不相同。若要使抽样能反映出总体来,抽更多的样或抽更多次数的样,中心极限定理。抽样的均值的分布:

n = [10,100,1000]
p = 0.5

fig, AX = plt.subplots(ncols=3, nrows=1, figsize=(15,5), dpi=288)
for i, ax in enumerate(AX):
    se = np.sqrt(p*(1-p)/n[i])
    distribution = stats.norm(loc = 0, scale=se)
    x = np.linspace(-1,1,100)
    y = distribution.pdf(x)
    ax.plot(x,y)
    ax.set_title('n={}'.format(n[I]))

image.png

可以看到,抽样的次数越多,均值的分布的范围越窄,随着n变大,均值数值从区间向单个值靠拢。也就是n越大,抽样越接近总体,n越小则样本偏离总体的可能性越大。

回到假设检验

前面说到假设检验是两组数据的比较,是两组数据总体的比较,而现实中,大多数情况只能获得样本去推测总体来比较,并且这是一个证伪的题,已知样本越小,偏离总体的可能性越大,那么样本越小容错率应该更高,不轻易拒绝H_0,小样本所反映的总体均值的分布应该更胖。

拒绝H_0

拒绝H_0,即两个均值不相等。

image.png

之前提到,样本数量越大,样本均值分布范围越瘦,反之越胖。胖子给人在空间中的印象总是“拥挤” + “边界模糊”,瘦子“清晰”、“锐利”。抽样n=10的时候,图像重叠度很高,很难下定决心说,这两个总体上有差异,n=100,000时,很清晰两总体一定是不同的。

那么反过来说,如果在样本很小的时候就能证明两组数据总体上不想等,意味着这两组数据均值一定差别很大,蚂蚁和大象的身高,只要抽1只蚂蚁,1头大象就能反映总体上蚂蚁与大象升高不同。若要观察中国的南方人与北方人身高差异,估计得要抽许多人,才能反映出总体的差异。

换一句话说,在小样本的时候需要对其结果进行惩罚,使他的分布更胖,更不容易拒绝H_0。我认为此时的T检验与Z检验的差别点出现了。

T检验与Z检验的差别

Z分布,标准正态分布。T分布(见下图,引用wiki百科的图),正态分布,胖瘦随着n,教科书称之为自由度,的增加,由胖变瘦,形态最终趋向标准正态分布。

image.png

Z分布与T分布,是两个分布,概率函数公式的存在差异,T分布较Z分布多了一个自由度的变量,惩罚小样本,增加其拒绝H_0的难度,因而小样本采用T检验,优于Z检验。

上一篇下一篇

猜你喜欢

热点阅读