Softmax激活函数、交叉熵损失及参数更新

2020-09-19  本文已影响0人  小悦悦的爸爸

交叉熵(Corss Entropy)损失函数定义

    二分类问题:

    L_{ce}  = - (y\cdot \ln\check{y}    + (1-y)\cdot \ln (1-\check{y}) )

    多分类问题:

    L_{ce}  = - \sum_{i}^n y\cdot \ln \check{y}


激活函数:

    SoftMAX 定义(多分类)

        S_{i}  = \frac{e^i }{\sum\nolimits_{j}^J e^j    }

    Sigmoid 定义(二分类)

            \sigma  = \frac{1}{1 + e^{-z} }


Sigmoid 交叉熵损失求导:

    L_{i} = y_{i} \hat{y_{i}}  (y_{i}  为期望值,\hat{y_{i}} 为预测值)

SoftMax 交叉熵损失求导(是不是很简单):

    L_{i}  =  \hat{ y_{i}} - 1

Loss = \frac{1}{m} \sum_{j}^m\sum_{i} L_{i} + \lambda  W  (\lambda W为正则化惩罚)


参数更新:

W_{new} = W - \eta \cdot -\frac{\delta   Loss}{\delta  W}  (\eta  为学习率,注意是反向梯度)


训练过程

上一篇下一篇

猜你喜欢

热点阅读