03 多层感知机
2020-02-14 本文已影响0人
席地而坐_2a9a
激活函数
ReLU
ReLU(x)=max(x,0)
ReLU
Sigmoid函数
Sigmoid
Sigmoid
tanh函数
tanh
tanh
激活函数的选择
激活函数的选择
多层感知机的pytorch实现
导入包
初始化模型和参数
训练
ReLU(x)=max(x,0)
ReLU
Sigmoid
Sigmoid
tanh
tanh
激活函数的选择
导入包
初始化模型和参数
训练