Chapter - 10 Exercise(1-8)

2018-10-30  本文已影响0人  博士伦2014
  1. 使用原始人工神经元(如图10-3中的那些)绘制ANN,计算A⊕B(其中⊕代表XOR运算)。提示:A⊕B=(A∧¬B)∨(¬A∧B)。
    这是一个基于原始人工神经元计算A⊕B的(其中⊕表示异或)神经网络,使用A⊕B=(A∧¬B)∨(¬A∧B)。
    还有其他解决方案 - 例如,使用A⊕B=(A∨B)∧¬(A∧B)的事实,
    或者A⊕B=(A∨B)∧(¬A∨∧B),等等。


    image.png
  2. 为什么通常更喜欢使用Logistic回归分类器而不是古典感知器(即,使用Perceptron训练算法训练的单层线性阈值单元)?如何调整Perceptron以使其等效于Logistic回归分类器?

  1. 为什么logistic激活函数是训练第一个MLP的关键因素?
    逻辑激活函数是训练第一个MLP的关键因素,因为它的导数总是非零,因此梯度下降总是可以向下滚动。 当激活函数是阶梯函数时,梯度下降不能移动,因为根本没有斜率。

  2. 命名三个流行的激活功能。 你能画出来吗?
    阶梯函数,逻辑函数,双曲正切,整流线性单元(见图10-8)。有关其他示例,请参阅第11章,例如ELU和ReLU的变体。

  3. 假设你有一个MLP,输入层由10个passthrough神经元组成,输入层后面是一个带有50个人工神经元的隐藏层,最后是一个带有3个人工神经元的输出层。 所有人工神经元都使用ReLU激活函数。

  1. 如果要对电子邮件进行分类,输出层中需要多少个神经元?你应该在输出层使用什么激活函数? 如果你想要解决MNIST,你需要在输出层使用多少神经元,使用什么激活函数? 回答相同的问题,让你的网络预测住房价格,如第2章所述。
  1. 什么是反向传播?它是如何工作的?反向传播和反向模式自动存储有什么区别?
    反向传播是一种用于训练人工神经网络的技术。

那有什么区别?嗯,

  1. 你能列出你可以在MLP中调整的所有超参数吗?如果MLP过度训练数据,你怎么能调整这些超参数来试图解决问题?
    以下是你可以在基本MLP中调整的所有超参数的列表:

如果MLP过度拟合训练数据,你可以尝试减少隐藏层的数量并减少每个隐藏层的神经元数量

上一篇下一篇

猜你喜欢

热点阅读