tf.one_hot编码

2019-02-24  本文已影响31人  ac619467fef3

很多机器学习和深度学习很多是多分类问题,例如mnist手写数字识别0~9,mnist fasion要是识别10种衣物类物品,cifar10/100要识别10或者100项物体。深度神经网络作为多分类模型,最后一层输出层要与分类个数相同,用交叉熵作为损失函数。

神经网络

定义神经网络最后一层,输出10个神经元。

y = slim.fully_connected(net, 10, activation_fn=None, 
                        scope='full5', reuse=False)

经过softmax编码,计算loss。

y_softmax = tf.nn.softmax(y)
loss = tf.reduce_mean(-d*tf.log(y_softmax))

d在图中定义了一个Tensor,直接读取数据集中的标签是整数储存的,通过one_hot编码后,才能用数组的方式计算损失函数。

label = tf.placeholder(dtype=tf.int32,[batch_size])
d = tf.one_hot(label,label_num)
...
sess.run(train_step,feed_dict={label:train_y})#一次迭代过程

测试代码

import tensorflow as tf
import numpy as np
np_labels = np.random.randint(0,5,32)
# set_labels = set(np_labels)
# print(set_labels)
# label_one_keras = tf.keras.utils.to_categorical(np_labels,num_classes=5)
print("label_one_keras:\n",label_one_keras)
labels  = tf.placeholder(tf.int32,[32])
label_one = tf.one_hot(labels,depth=5)
sess = tf.Session()
print(sess.run(label_one,feed_dict={labels:np_labels}))

注,keras包中的to_categorical是numpy处理函数,不添加Tensor。

上一篇 下一篇

猜你喜欢

热点阅读