深度学习

交叉熵损失函数

2019-03-08  本文已影响116人  潇萧之炎

Cross Entropy Loss

在二分类问题模型:例如逻辑回归「Logistic Regression」、神经网络「Neural Network」等,真实样本的标签为 [0,1],分别表示负类和正类。模型的最后通常会经过一个 Sigmoid 函数,输出一个概率值,这个概率值反映了预测为正类的可能性:概率越大,可能性越大。

单个样本损失函数:

图片1.png

N 个样本的总的损失函数:

图片2.png

交叉熵损失函数的其他形式:

单个样本:

图片3.png

N个样本:

图片4.png

转载自: https://blog.csdn.net/red_stone1/article/details/80735068

上一篇下一篇

猜你喜欢

热点阅读