[机器学习算法]线性回归模型

2020-01-28  本文已影响0人  TOMOCAT

基本形式

给定包含m条记录的数据集D

D={(x_1,y_1),(x_2,y_2),...,(x_m,y_m)}
线性回归模型试图学习一个线性模型以尽可能地预测因变量y

f(x)=w_1x_1+w_2x_2+...+w_px_p+b

多元线性回归的假设

同大多数算法一样,多元线性回归的准确性也基于它的假设,在符合假设的情况下构建模型才能得到拟合效果较好的表达式和统计性质较优的估计参数。

参数估计

将线性表达式写为向量形式:

f(x)=w^Tx+b
利用最小二乘法令均方误差最小化:

\hat{w}^*=\min_{\hat{w}}(y-X\hat{w})^T(y-X\hat{w})

\hat{w}^*=(X^TX)^{-1}X^Ty

注:当线性回归模型存在多重共线性问题时,可能会有多组解使得均方误差最小化,常见的解决方法是引入正则化。

线性回归模型的变形

1.对数线性回归

对数线性回归本质上仍然是线性回归模型,只是我们将因变量的对数作为模型新的因变量:

ln y=w^Tx+b

2.广义线性模型

当数据集不适合用传统的多元线性回归方法拟合时,我们可以考虑对因变量做一些合理的变换。最常用的就是对数线性回归,还有很多其他的变换统称为“广义线性模型”generalized linear model

y=g^{-1}(w^Tx+b)
其中g(·)是单调可微函数。

显著性检验

在一元线性回归中,我们可以根据因变量和因变量的图像来检验是否符合线性关系。在多元线性回归中无法用图形帮助判断E(Y)是否随X_1,X_2,...,X_p作线性变化,因此显著性检验就显得尤为重要。检验包括单个/多个回归系数的显著性检验和回归方程的整体显著性检验。

1.回归系数的显著性检验

对于任意一个参数\beta_i,构造原假设与备择假设:
H_0:\beta_i=0;H_1:\beta_i\neq 0
H_0成立时,我们构造t统计量:
T_j=\frac{\hat\beta_j}{\hat\sigma \sqrt{c_{jj}}} \sim t(n-p-1)
其中c_{jj}C(X^TX)^{-1}的对角线上第j个元素。给定显著性水平\alpha,检验的拒绝域为:
|T_j|\geq t_{\alpha/2}(n-p-1)

2.回归方程的显著性检验

构造原假设:
H_0:\beta_0=\beta_1=...=\beta_p=0
备择假设即\beta_i不全为零,当原假设成立时,构造F统计量:
F=\frac{MSR}{MSE}=\frac{SSR/p}{SSE/(n-p-1)}\sim F(p,n-p-1)
其中SSR=\sum_{i=1}^{n}(\hat y_i - \bar y)^2,SSE=\sum_{i=1}^{n}(y_i-\hat y_i)^2,通常我们将前者称为回归平方和,后者称为残差平方和。给定显著性水平\alpha,检验的拒绝域为:
F > F_{\alpha}(p,n-p-1)

我们常使用R^2=\frac{SSR}{SST}来衡量回归直线对观测值的拟合程度,SST=\sum_{i=1}^{n}(y_i-\bar y)^2表示总体利差平方和,这个思想和回归方程的整体显著性检验殊途同归。

参数区间估计

\beta的统计性质可知:
T_i=\frac{\beta_i - \beta}{sd(\hat \beta_i)} \sim t(n-p-1)
因此\beta_i的区间估计可写为:
\Big[ \hat \beta_i - sd(\hat \beta_i)t_{\alpha /2(n-p-1)}, \hat \beta_i + sd(\hat \beta_i)t_{\alpha /2(n-p-1)} \Big]

Reference

[1] 统计建模与R软件
[2] 商务与经济统计

上一篇 下一篇

猜你喜欢

热点阅读