Pytorch机器学习——3 神经网络(二)

2022-04-06  本文已影响0人  辘轳鹿鹿

outline

  1. 神经元与神经网络
  2. 激活函数
  3. 前向算法
  4. 损失函数
  5. 反向传播算法
  6. 数据的准备
  7. PyTorch实例:单层神经网络实现

3.2 激活函数

在神经元中输入信息通过一个非线性函数f:y=f(z)产生输出,这个函数决定哪些信息保留以传递给后面的神经元,这个函数就是激活函数,又被称为非线性函数,对于给定的输入,激活函数执行固定的数学运算得到输出结果。
激活函数要具有以下性质:

下面介绍几种常见的激活函数:

3.2.1 Sigmoid

sigmoid函数也叫Logistic函数,用于隐层神经元输出,取值范围为 (0,1) ,它可以将一个实数映射到 (0,1) 的区间,可以用来做 二分类。在特征相差比较复杂或是相差不是特别大时效果比较好。
Sigmoid函数由下列公式定义
S(x)=\frac{1}{1+e^{-x}}
其对x的导数可以用自身表示:
S^{\prime}(x)=\frac{e^{-x}}{\left(1+e^{-x}\right)^{2}}=S(x)(1-S(x))
Sigmoid函数的图形如s曲线,又称s函数

image.png

Sigmoid作为激活函数有以下优缺点:

import torch
m=torch.nn.Sigmoid()
_input = torch.autograd.Variable(torch.rand(2))
print(_input)
print(m(_input))

有用就留个赞吧^_^

上一篇下一篇

猜你喜欢

热点阅读