深度学习实战演练

第三章(1.6)tensorflow cross_entropy

2019-01-13  本文已影响53人  _两只橙_

一、Tensorflow交叉熵函数:cross_entropy

以下交叉熵计算函数输入中的logits都不是softmaxsigmoid的输出,因为它在函数内部进行了sigmoidsoftmax操作

1、tf.nn.sigmoid_cross_entropy_with_logits(_sentinel=None, labels=None, logits=None, name=None)

2、tf.nn.softmax_cross_entropy_with_logits(_sentinel=None, labels=None, logits=None, dim=-1, name=None)

3、tf.nn.sparse_softmax_cross_entropy_with_logits(_sentinel=None, labels=None, logits=None, name=None)

4、tf.nn.weighted_cross_entropy_with_logits(labels, logits, pos_weight, name=None)

5、计算公式: pos_weight*labels * -log(sigmoid(logits)) + (1 - labels) * -log(1 - sigmoid(logits))

关注我的技术公众号,每天推送优质文章
关注我的音乐公众号,工作之余放松自己
微信扫一扫下方二维码即可关注:


音乐公众号
技术公众号
上一篇 下一篇

猜你喜欢

热点阅读