神经网络之反向传播

2017-07-18  本文已影响110人  我叫胆小我喜欢小心

注意:本文为学习笔记,大量直接复制于参考文章中的原文字及图片

反向传播(Backpropagation),该方法计算对网络中所有权重计算损失函数的梯度。这个梯度会反馈给最优化方法,用来更新权值以最小化损失函数。
任何监督式学习算法的目标是找到一个能把一组输入最好的映射到其正确的输出的函数。

概括

反向传播算法(BP算法)主要由两个阶段:激励传播与权重更新。

这个比例(百分比)将会影响到训练过程的速度和效果,因此称为“训练因子”。梯度的方向指明了误差扩大的方向,因此在更新权重的时候需要对其取反,从而减小权重引起的误差。
第1和第2阶段可以反复循环迭代,直到网络的对输入的响应达到满意的预定的目标范围为止。

看着有点晕,所以接下来还是看看详细的解释吧。


如图所示的网络,有三层,输入层i,隐藏层h,输出层ow为权重。
输入为0.05,0.10, 预计输出为0.01,0.99。
然后经过前向传播得到一个结果,与实际有一个误差,常见方法是用平方差来测量,如下

然后如何用这个来更新权重呢?实际上可以把这个公式想象成一个曲面。然后我们要做的就是使得E最小,实际上就是想要得到曲面的最低点。所以采用梯度下降的方法。


以w5为例子,求偏导,然后梯度下降,设一个learning rate,控制下降的速度。

对w5进行更新,假如斜率大于0,那么就应该减少,假如斜率小于0,那么就应该增加。

然后同理对其他参数也进行更新,然后不断的迭代更新,直到固定次数或者误差小于某个阈值。

参考链接:
维基百科-反向传播算法
一文弄懂神经网络中的反向传播法——BackPropagation
偏导数及其几何意义

上一篇 下一篇

猜你喜欢

热点阅读