《白话统计》学习笔记|统计资料的类型

2019-10-07  本文已影响0人  Steven潘

第4章 关于统计资料类型的思考

本文为《白话统计》第四章的学习笔记。主要是摘录每一小节的重点内容,局部有编辑加工。

4.1 计数资料等于分类资料吗

计数资料有单位,分类资料无单位。

计数资料通常服从泊松分布,可用Poisson回归分析;分类资料通常服从二项分布或多项分布,一般采用二分类或多项Logistic回归分析。

4.2 计数资料是否可用连续资料的方法分析

计数资料取值离0很远,大致呈正态分布,且研究者对预测值出现小数点甚至负数不是很介意,此时计数资料可用考虑采用连续资料的方法进行分析;否则,最好采用泊松回归或负二项回归。

4.3 分类资料中的无序和有序是如何确定的

如果研究目的希望体现出自变量等级的差异,视作有序变量;如果仅仅关注自变量组间的差异,而不关注其等级的差异,视作无序变量。

无序分类资料的比较可用卡方检验,而有序分类变量的比较则考虑秩和检验。

4.4 连续资料什么时候需要转换为分类资料

第一,出于实际应用考虑,选择较容易接受和操作的方式。

第二,如果连续资料本身与结果之间不是线性关系,有时为了简化问题,可以考虑其作为分类资料。

发表文章提醒:如果把一份连续资料划分为分类资料,则应在“材料与方法”中说明是如何划分的,尤其要注意划分的界限不要有重叠。

4.5 连续资料如何分组——寻找cut-off值的多种方法

根据专业和实际经验

当样本量较小时,尽量划分得不要太多,最好只分为两类。

作为参照组的那一类的例数绝不能太少,否则所有估计结果都是不稳定的。

利用广义可加模型结合专业来划分

library(gam)
fit=gam(hyper~s(age),data=f1,family=binomial)
summary(fit)
plot(fit,se=TRUE)

在R中用以上代码,可以得到因变量与自变量的广义可加模型(GAM)图,由此大致判断因变量与自变量的关系,帮助判断分组。

利用ROC曲线找出cut-off值来划分

ROC (Receiver Operating Characteristic) 曲线能找出界值,将变量分为两类。

前提条件:必须有一个明确的二分类结局。

ROC曲线是以灵敏度为y轴,以1-特异度为x轴,由不同界值产生不同的点,将这些点连接起来形成的。

ROC曲线图中最靠近最上角的点就是cut-off值。

library(pROC)
rr=roc(f1$y,f1$x)
plot(rr,print.thres=TRUE,print.auc=TRUE)

利用最大选择秩统计量来划分

当因变量是生存资料、定量资料时,ROC曲线就无能为力了,此时考虑用最大选择秩统计量来寻找界值。

原理是对x的每个值分别进行划分,计算标准化统计量(反映划分后的分组差异),找到其中最大的,对应的划分值就是最佳cut-off值。

因变量是分类或连续资料时
library(maxstat)
c=maxstat.test(y~x,dataset,pmethod="HL")
plot(c)
因变量是生存资料时
library(maxstat)
c=maxstat.test(Surv(time,status)~x,dataset,smethod="LogRnak",pmethod="HL")
plot(c)

利用分类树来划分

对自变量的每个值进行划分,计算熵的降低程度,找到熵减程度的最大值所对应的划分值。

library(rpart)
c=rpart(y~x,dataset,method="class")
plot(c,branch=0)
text(c,use.n=T,col="blue)

聚类分析

没有明确结局(因变量)时,采用聚类分析。

总的来说是基于距离划分,两个点距离近的分为一类,距离远的划分到其他类。划分后各类别的距离尽量远,类内的距离比较近。

完全根据数据本身来划分,不涉及任何专业知识,划分的结果可能与专业相悖,使用时需谨慎。

有的方法需要指定拟划分类别(如K-means法、SOM法),有的不需要(如层次法)。

4.6 什么是虚拟变量/哑变量

虚拟变量(又称哑变量)是将多分类变量转换成二分类变量的一种方式。

主要用于多分类自变量与因变量是非线性关系的时候。

如果多分类变量有k个类别,则可以转换成k-1个二分类变量。

重要提醒:当把变量作为虚拟变量纳入模型时,一定要同进同出,不能在模型中只保留虚拟变量的其中一个,即使它们中存在p>0.05的变量。

缺点:如果样本量不够大,自变量的增加会导致估计结果的不稳定。

上一篇 下一篇

猜你喜欢

热点阅读