反向传播公式推导
2018-09-26 本文已影响0人
Simple_isBeauty
参考自https://www.coursera.org/learn/neural-networks-deep-learning/home/welcome
一、逻辑回归导数(单一样本)
通过链式求导法则求得损失函数L关于参数w,b的导数
- dw1 = x1*dz
- dw2 = x2*dz
- db = dz
对参数进行更新,α是学习速率
- w1 = w1 - αdw1
- w2 = w2 - αdw2
- b = b - αdb
二、逻辑回归导数(m个样本)
- 每一个样本按列排放,X∈Rnx,m
- 参数向量w∈Rnx,1为列向量
- 逻辑回归中,单个样本dz = a - y,这里为m个样本,是两个向量相减,得dZ
- 把w看作列向量,dw += XdZT
image.png
三、神经网络导数(逻辑回归的堆叠)
- dW[2] = dZ[2] a[1]T
- 如下图,可以看出,这里的dW是对所有样本的求和,最后还需要除以1/m
- da[1] = W[2]T dZ[2]
- [注] 如下图,与正向传播的公式作比较,可以看出反向传播确实求得da