单变量线性回归

2019-01-10  本文已影响19人  此间不留白

模型介绍

如图所示,在房价预测中,房间大小与其价格的关系可以简单地看成是一组线性关系,对于每一个房间大小,都有一个房价与其对应。


房价预测模型

下图所示的是一组房价预测模型的训练样本,我们用特定字母表示其特定含义,如下:


房价预测训练样本

m= 训练样本数
x= 输入特征/输入变量
y= 输出特征/目标变量的预测值
通常,可以用(x,y)表示一个训练样本(one training example),用(x^(i^),y^(i^)),表示第i个训练样本。

在单变量线性回归中,假设函数可以写成如下所示:
h= \theta_0 + \theta_1x,表示输入输出之间的线性关系。

代价函数(cost function)

对于 h = \theta_0 + \theta_1x而言,选择不同的\theta_0\theta_1,会得到不同的假设函数。在单变量线性回归模型中,提高模型训练的正确率关键在与选择合适的参数。

代价函数的二维平面表示

梯度下降(Gradient decent)

以上公式中,\alpha代表学习率(learning rate),用来控制梯度下降时,应该迈出多大的步子。\alpha越大,代表梯度下降越迅速,\alpha取值过大,有可能导致梯度下降过程中越过J(\theta_0,\theta_1)的最小值,甚至无法收敛。当J(\theta_0,\theta_1)是局部最小值时,J(\theta_0,\theta_1)的导数为0,\theta_1将不再发生改变。

注意,\theta_0\theta_1是同时更新的,而不是先更新完\theta_0之后,再更新\theta_1.

如下图所示,随着梯度下降过程的发展,\frac{\partial}{\partial\theta_j}J(\theta_0,\theta_1)的值越来越小,直至达到局部最小值,即也就是\lim_{t \to \infty}\frac{\partial}{\partial\theta_j}J(\theta_0,\theta_1)=0,其中,t代表梯度下降算法运行的时间。

梯度下降过程

线性回归中的梯度下降

以上,讨论了代价函数和梯度下降的相关内容,那么如何将梯度下降运用到线性回归中呢?

上一篇 下一篇

猜你喜欢

热点阅读