Chapter - 11 Exercise(1-7)

2018-11-03  本文已影响0人  博士伦2014
  1. 是否可以将所有权重初始化为相同的值,只要使用He初始化随机选择该值?

不,所有权重都应独立采样;它们不应该都具有相同的初始值。随机抽样权重的一个重要目的是打破对称性:
如果所有权重具有相同的初始值,即使该值不为零,那么对称性不会被破坏(即,给定层中的所有神经元都是等价的),并且反向传播也将无法打破它

具体地说,这意味着任何给定层中的所有神经元将始终具有相同的权重。这就像每层只有一个神经元,而且要慢得多。这种配置几乎不可能收敛到一个好的解决方案。

  1. 将偏差项初始化为0可以吗?
    将偏置项初始化为零是完全正确的。有些人喜欢像权重一样初始化它们,这也没关系; 它没有太大的区别。

  2. 说明ELU激活功能优于ReLU的三个优点。
    ELU功能优于ReLU功能的一些优点是:

  1. 在哪种情况下,你希望使用以下每个激活函数:
    ELU,leaky ReLU(及其变体),ReLU,tanh,logistic和softmax?
  1. 如果在使用MomentumOptimizer时将动量超参数设置得太接近1(例如,0.99999)会发生什么?
  1. 列举三种可以生成稀疏模型的方法。
    产生稀疏模型(即,大多数权重等于零)的
  1. dropout 是否会减缓训练?它是否会减慢推理速度(即对新实例进行预测)?
    是的,dropout 确实会减慢训练速度,一般大约是两倍
    但是,它对推理没有影响,因为它仅在训练期间打开
上一篇 下一篇

猜你喜欢

热点阅读