专业知识总结

BP原理(前馈神经网络)

2018-10-30  本文已影响0人  暑水

自然常数e

公式中的e叫自然常数,也叫欧拉数,e=2.71828…。e是个很神秘的数字,它是“自然律”的精髓,其中暗藏着自然增长的奥秘,它的图形表达是旋涡形的螺线。

e = 1 + 1/1! + 1/2! + 1/3! + 1/4! + 1/5! + 1/6! + 1/7! + … = 1 + 1 + 1/2 + 1/6 + 1/24 + 1/120+ … ≈ 2.71828

常见的激活函数:

最常见的激活函数是Sigmoid(S形曲线),Sigmoid有时也称为逻辑回归(Logistic Regression),简称logsig。 Sigmoid(S形曲线) 还有一种S形曲线也很常见到,叫双曲正切函数(tanh),或称tansig,可以替代logsig。 双曲正切函数(tanh) 下面是它们的函数图形,从图中可以看出logsig的数值范围是0~1,而tansig的数值范围是-1~1。

BP算法

bp基本原理是:
利用前向传播最后输出的结果来计算误差的偏导数,再用这个偏导数和前面的隐藏层进行加权求和,如此一层一层的向后传下去,直到输入层(不计算输入层),最后利用每个节点求出的偏导数来更新权重。

注意:隐藏层和输出层的值,都需要前一层加权求和之后再代入激活函数获得。

残差计算

残差(error term) : 表示误差的偏导数

输出层→隐藏层:残差 = -(输出值-样本值) * 激活函数的导数 
隐藏层→隐藏层:残差 = (右层每个节点的残差加权求和)* 激活函数的导数

(注意:激活函数的导数中代入的值是前一层的加权值)
如果输出层用Purelin作激活函数,Purelin的导数是1,输出层→隐藏层:残差 = -(输出值-样本值)

如果用Sigmoid(logsig)作激活函数,那么:Sigmoid导数 = Sigmoid*(1-Sigmoid)
(Sigmoid指的是Sigmoid函数代入前一层的加权值得到的值,即输出值)
输出层→隐藏层:

残差 = -(输出值-样本值) * Sigmoid*(1-Sigmoid) = -(输出值-样本值)输出值(1-输出值)
隐藏层→隐藏层:
残差 = (右层每个节点的残差加权求和)* 当前节点的Sigmoid*(1-当前节点的Sigmoid)

如果用tansig作激活函数,那么:tansig导数 = 1 - tansig^2

更新权重

残差全部计算好后,就可以更新权重了:

输入层:权重增加 = 输入值* 右层对应节点的残差 * 学习率 
隐藏层:权重增加 = 当前节点的Sigmoid* 右层对应节点的残差 * 学习率 
偏移值的权重增加 = 右层对应节点的残差 * 学习率 

学习率是一个预先设置好的参数,用于控制每次更新的幅度。

此后,对全部数据都反复进行这样的计算,直到输出的误差达到一个很小的值为止。

BP神经网络的特点和局限:

示例

这里介绍的是计算完一条记录,就马上更新权重,以后每计算完一条都即时更新权重。实际上批量更新的效果会更好,方法是在不更新权重的情况下,把记录集的每条记录都算过一遍,把要更新的增值全部累加起来求平均值,然后利用这个平均值来更新一次权重,然后利用更新后的权重进行下一轮的计算,这种方法叫批量梯度下降(Batch Gradient Descent)。

上一篇下一篇

猜你喜欢

热点阅读