多层感知机
2020-02-14 本文已影响0人
英文名字叫dawntown
1. 基础概念
多层感知机就是含有至少一个隐藏层的由全连接层组成的神经网络,且每个隐藏层的输出通过激活函数进行变换。
多层感知机相比于线性模型有两个主要特点:多层和激活函数
1.1 隐藏层

每两层神经元之间的关系如下:
如果直接将隐层输出作为输出层输入(),则与线性回归(单层神经网络)等效:
此需要引入非线性的激活函数
1.2 激活函数

名字 | 公式 | 求导 |
---|---|---|
Sigmoid | ||
Tanh | ||
ReLU |
- ReLu函数是一个通用的激活函数,目前在大多数情况下使用。
- ReLU函数只能在隐藏层中使用。
- 用于分类器时,sigmoid函数及其组合通常效果更好。
- 由于梯度消失问题,有时要避免使用sigmoid和tanh函数。
- 在神经网络层数较多的时候,最好使用ReLu函数,ReLu函数比较简单计算量少,而sigmoid和tanh函数计算量大很多。
- 在选择激活函数的时候可以先选用ReLu函数如果效果不理想可以尝试其他激活函数。
按照自己的需求选用以上激活函数,
实现非线性变换。