看了ai的N本书,一直没有区分开logloss和交叉熵,还以为是两个东西。
粗略的说,这俩玩意儿就是一个玩意儿。特别是对于初学者来说,这个结论太重要了。虽然在其它方面有点点不同,但是建议大家不需去理会。
请参考:
What is the difference between cross-entropy and log loss error?stackoverflow.com如果想看的更清楚,请参考。
Neural networks and deep learningneuralnetworksanddeeplearning.com实现上,tensorflow有对应的实现。请参考文章
刘大力:Tensorflow 中的损失函数 —— loss 专题汇总zhuanlan.zhihu.com文章里介绍了logloss和交叉熵,二分类时作用是一样的。