- 博客(1)
- 收藏
- 关注
原创 Tensorflow(1)-softmax
1 tf.nn.softmax_cross_entropy_with_logits(labels=label, logits=logits)logits = [[0.1,0.2,0.3], [1, 2, 3]] label = [[0,0,1],[0,0,1]]2 tf.nn.sparse_softmax_cross_entropy_with_logits(labels=label1, logit
2017-12-29 16:32:15 301
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人