从TensorFlow 0.8开始,现在有一个native one-hot op, tf.one_hot可以将一组稀疏标签转换为密集的单热表示.这是tf.nn.sparse_softmax_cross_entropy_with_logits的补充,在某些情况下,您可以直接在稀疏标签上计算交叉熵,而不是将它们转换为单热.
以前的答案,如果你想以旧的方式做到这一点:
@ Salvador的答案是正确的 – 那里(以前)没有本地操作.但是,您可以使用稀疏到密集的运算符在tensorflow中本地执行此操作,而不是在numpy中执行此操作:
num_labels = 10
# label_batch is a tensor of numeric labels to process
# 0 <= label < num_labels
sparse_labels = tf.reshape(label_batch, [-1, 1])
derived_size = tf.shape(label_batch)[0]
indices = tf.reshape(tf.range(0, derived_size, 1), [-1, 1])
concated = tf.concat(1, [indices, sparse_labels])
outshape = tf.pack([derived_size, num_labels])
labels = tf.sparse_to_dense(concated, outshape, 1.0, 0.0)
输出标签是batch_size x num_labels的单热矩阵.
另请注意,截至2016-02-12(我假设最终将成为0.7版本的一部分),TensorFlow还具有tf.nn.sparse_softmax_cross_entropy_with_logits操作,在某些情况下可以让您进行培训而无需转换为一热编码.
编辑添加:最后,您可能需要明确设置标签的形状.形状推断无法识别num_labels组件的大小.如果您不需要使用derived_size的动态批量大小,则可以简化此操作.
编辑2016-02-12更改以下评论的outshape分配.