tensorflow 中 sparse_softmax_cross_entropy_with_logits 与 softmax_cross_entropy_with_logits区别
在tensorflow的入门教程中,有使用mnist数据集搭建了一层的简单网络,然后在在计算输出及loss的时候, 使用到了 softmax_cross_entropy_with_logits ,同时 tensorflow中还有sparse_ softmax_cross_entropy_with_logits,这两个的意义是基本相同的,那它们有什么区别呢?
如果看tensorflow源码,比较容
原创
2017-07-23 03:16:29 ·
3914 阅读 ·
0 评论