R

第二节 多元线性回归

2019-06-10  本文已影响0人  Vector_Wan

本节主要包括:

思维导图

一、回归模型的引入

1. 模型的一般形式

和一元线性回归一样,回归模型,与理论回归方程为:
y = \beta_0 = \beta_1 x_1+ ... + \beta_p x_p + \epsilon
E(y) =\beta_0 = \beta_1 x_1+ ... + \beta_p x_p

因为多元线性回归一个观测值就不再是一个标量而是一个向量了,所以可能自变量的观测值就变成了(1, x_{11}, ..., x_{1p}),(1, x_{21}, ..., x_{2p}),..., 而对应的因变量的观测值不变,还是 y_1, y_2, ...,因此我们把这些观测值每一行每一行的叠加起来就成为了一个向量或者矩阵。

为了方便,记:
\mathbf y = \begin{bmatrix} y_1\\y_2\\ \vdots \\y_n \end{bmatrix},\mathbf X = \begin{bmatrix} 1&x_{11}& \dots & x_{1p}\\ 1&x_{21}& \dots & x_{2p}\\ \vdots&\vdots& & \vdots\\ 1&x_{n1}& \dots & x_{np}\\ \end{bmatrix}, \mathbf\epsilon = \begin{bmatrix} \epsilon_1\\\epsilon_2\\ \vdots \\\epsilon_n \end{bmatrix}, \mathbf{\beta} = \begin{bmatrix} \beta_1\\\beta_2\\ \vdots \\\beta_n \end{bmatrix}
那么这个时候的多元线性回归的表示就变成了\mathbf y = \mathbf{X\beta}+\mathbf \epsilon, 其中\mathbf X 我们一般称为设计矩阵。

2. 多元线性回归模型的基本假定

为了方便参数估计有下面三个基本假定:

  1. 解释变量x_i是确定性变量,不是随机变量,设计矩阵是满秩矩阵。r(X) = p + 1
  2. 随机误差项的高斯-马尔科夫条件:
    随机误差平均值为 0,随机误差在不同样本点之间不相关。
    \left\{ \begin{array}{c} E(\epsilon_i) =0, i = 1,2,...,n \\ cov(\epsilon_i\epsilon_j) =\left\{ \begin{array}{c}\delta^2,i=j\\ 0,i\neq j\end{array} i ,j = 1,2,... , n \right. \\ \end{array} \right.
  3. 随机误差项的正态假设
    \epsilon \sim N(\mathbf0, \sigma^2 \mathbf{I}_n)

根据以上的假设我们有:
\mathbf y \sim N(\mathbf{X \beta, \sigma^2 \mathbf I_n})

3. 多元线性回归方程的解释

所以如何去理解多元线性回归的含义?我们其实根据理论回归方程,比方说对自变量 x_1求偏导,就会有 \frac{\partial E(y)}{\partial x_1} = \beta_1,注意偏导的含义是控制其余变量不变的。因此这里 \beta_1的含义就是在控制其余因素不变的情况下,我每增加一个单位的 x_1会给我的因变量带来 \beta_1个单位的影响。这也是和一元回归稍微不一样的地方。

二、回归参数的估计

1. 回归参数的最小二乘法估计

我们现在要最小化的函数是:
Q(\hat{\beta_0}, \hat{\beta_1}, ... ,\hat{\beta_p}) = \sum_{i = 1}^n(y_i - \hat{\beta_0} - \hat{\beta_1}x_{i1}-...-- \hat{\beta_p}x_{p1})^2
对每一个需要估计的参数求偏导,我们可以得到一系列的方程组如下:


下面使用矩阵的语言来描述会简单一些:
矩阵方法
最后得到的结果为:

说到这里,我们要提一下我们所得到的矩阵。因为它太重要了,所以需要给它一个单独的定义。

定义:H = X(X^TX)^{-1}X^T 为帽子矩阵。

也就是说,如果我们的观测值是 y (请注意,这里是向量不再是数了,请尽快习惯矩阵的语言)。那么估计值就是 \hat y = Hy。(加了一个小帽子 ^ )

帽子矩阵有很多良好的性质:

2. 回归值与残差值

首先先给出一些基本概念:(注意都是向量)

下面我们来给出一些结论:

3. 极大似然估计

和一元的一样,,

上一篇 下一篇

猜你喜欢

热点阅读