【Andrew Ng机器学习】单变量线性回归-梯度下降

2018-07-11  本文已影响0人  jenye_

课程:吴恩达机器学习


此篇我们将学习梯度下降算法,我们之前已经定义了代价函数J,梯度下降法可以将代价函数J最小化。
梯度下降是很常用的算法,他不仅被用在线性回归上,还被广泛应用与机器学习的众多领域。
之后,我们也会用到梯度下降法最小化其他函数,而不仅仅是最小化线性回归的额代价函数J。


我们的问题

J(\theta_0,\theta_1,\theta_2,\theta_3,...,\theta_n)
Goal:


但为了简化符号,接下来我们只使用两个参数。

梯度下降的思路

图像分析梯度下降
  1. 假设我们初始化\theta_0\theta_1在山腰上的这一点,那么我们应该朝什么方向迈步?
  2. 如果你看一下周围发现最佳的下山方向是如果方向那么:
  3. 此时又到了新的一点,那么同样的问题,我们应该往什么方向迈步?接着同样的步骤,按照自己的思路,并确定从哪个方向下山,然后又迈进了一小步又一小步,直到收敛至局部最低点。


  4. 梯度下降有一个有趣的特点, 如果初始点不同,重复上述动作,所得到的可能是不同的局部最优处。
梯度下降的数学原理

这里先不解释为什么要同时更新,事实上使用梯度下降方法,同步更新是更自然的实现方法,当人们谈到梯度下降时,他们指的就是同步更新。
如果用非同步更新去实现算法,可能也会正确工作,但是这种方法并不是人们所指的那个梯度下降算法,而是具有不同性质的其他算法,这其中会表现出微小的差别,你应该做的是在梯度下降中真正实现同时更新。


下一篇,我们将详细讲一下导数项,如果已经学过微积分了,已经熟悉偏导数和导数,这其实就是这个导数项。通过下一篇,就能知道如何利用梯度下降算法了。
【Andrew Ng机器学习】单变量线性回归-梯度下降知识点总结

上一篇下一篇

猜你喜欢

热点阅读