关于tf.one_hot()需知其所以然

该命令一般用于cost function

 

import tensorflow as tf
N_CLASSES = 5
labels = [1,4,0,2,3,0,1,1]

with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    a = sess.run(tf.one_hot(labels,N_CLASSES))
    b = sess.run(tf.argmax(a, 1))
    print('a:')
    print(a)
    print('b:')
    print(b)
    
cost = tf.losses.softmax_cross_entropy(a,logits,weight = 1)

以上代码最后一行不运行,得到结果如下

a:
[[ 0.  1.  0.  0.  0.]
 [ 0.  0.  0.  0.  1.]
 [ 1.  0.  0.  0.  0.]
 [ 0.  0.  1.  0.  0.]
 [ 0.  0.  0.  1.  0.]
 [ 1.  0.  0.  0.  0.]
 [ 0.  1.  0.  0.  0.]
 [ 0.  1.  0.  0.  0.]]
b:
[1 4 0 2 3 0 1 1]

其中b演示了原路返回。

结合最后一行代码就好理解了。

最后一层输出的维数=N,此例=5。

y_{i}=\frac{exp(logits_{i})}{\sum _{n=1}^{N}exp(logits_{n})}

H = -\sum_{i=1}^{M} label_{i}logy_{i}

H为交叉熵,M为batch无误,此例M=8。

其他方法

from keras.utils import np_utils
N_CLASSES = 3
label = [0,0,0,1,1,1,2,2,2]
train_label = np_utils.to_categorical(label, N_CLASSES)

train_label
Out[21]:
array([[1., 0., 0.],
       [1., 0., 0.],
       [1., 0., 0.],
       [0., 1., 0.],
       [0., 1., 0.],
       [0., 1., 0.],
       [0., 0., 1.],
       [0., 0., 1.],
       [0., 0., 1.]], dtype=float32)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

飞行codes

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值