DL问题

2018-08-10  本文已影响0人  e237262360d2

激活函数的作用:能处理非线性特性

如果不用激活函数,输出信号仅是个简单的线性函数,复杂性有限,能从数据中学习复杂函数的能力小。

一个没有激活函数的神经网络只不过是一个线性回归模型

为什么要用RELU激活函数,不用sigmod等函数

Relu:

速度快:一个max(0,x)函数,计算代价小

减轻梯度消失:sigmod在两端的时候,数值变化不大,导数梯度越来越小趋于0,造成梯度消失。Relu导数是1

稀疏性:sigmoide激活率大约是50%,relu函数在输入小于0时是完全不激活的,是更低的激活率。

SIFT提取特征的流程

SIFT 和 HOG 的区别,优缺点

权值共享怎么理解

损失函数:交叉熵,为什么不用平方误

RCNN流程

faster RCNN 和 RCNN 改变了什么

FCN对CNN做了什么改进

算法优缺点

Adam optimizer

上一篇 下一篇

猜你喜欢

热点阅读