深度学习神经网络

神经网络

2018-08-06  本文已影响26人  蛐蛐囍

本文主要介绍BP算法:

给定训练集D = \{(x_1,y_1),(x_2,y_2),...,(x_m,y_m)\},x_i \in R^dy \in R^l,即输入由d个属性描述,输出l维实值向量。

BP网络及算法中的变量符号.jpg

需注意的是,BP算法的目标是要最小化训练集D上的累积误差
E = 1/m \sum_{k = 1}^m E_k
标准的BP算法每次针对一个训练样例更新连接权和阈值。换言之,算法的更新规则是基于单个的E_k推到而得的。如果类似地推到基于累积误差最小化的更新规则,就得到了累积误差逆传播(accumulated error backpropagation)算法。
一般来说,标准BP算法每次更新只针对你单个样例,参数更新得非常频繁,而且对不同样例进行更新得效果可能出现抵消现象。因此,为了达到同样的累积误差极小点,标准BP算法往往需要进行更多次数的迭代。累积BP算法直接针对累积误差最小化,它在读取整个训练集D一遍后才对参数进行更新,其参数更新得频率低得多。

可以证明:多层前馈网络若包含足够多神经元的隐含层,则它可以以任意精度逼近任意复杂度的连续函数。

BP神经网络十分强大,因此可能出现过拟合现象。这时有两种策略可以缓解过拟合现象:

[ 神经网络的基本工作原理]

上一篇下一篇

猜你喜欢

热点阅读