cost返回Non一般是因为在使用交叉熵时候,logits这一边出现了0值,因此stack overflow上推荐的一般是:
tf.nn.sparse_softmax_cross_entropy_with_logits(self.logits+1e-10,self.target)
这样写法
这个和tf.nn.softmax_cross_entropy_with_logits区别是sparse输入的label是标签直接就是1,2,3,4,而softmax_cross_entropy_with_logits的label是one-hot向量,相当于sparse多做了一个onehot。