深度学习 第4次作业
2018-11-09 本文已影响0人
S_Valley_DiDa
1.深层神经网络


3.核对矩阵的维数


4.为什么使用深层表示


5.搭建深层神经网络块


深层神经网络:



6.前向和反向传播



7.参数 VS 超参数
1)参数
常见的参数即为W[1],b[1],W[2],b[2]……W[1],b[1],W[2],b[2]……
2)超参数
learning_rate: αα
iterations(迭代次数)
hidden layer (隐藏层数量L)
hidden units (隐藏层神经元数量n[l])
激活函数的选择
minibatch size
几种正则化的方法
momentum(动力、动量)



深度学习的实用层面


正则化减少过拟合:









优化算法
1.Mini-batch



2.指数加权平均




3.局部最优问题

