文章目录
高能警告:文末有所有完整代码(内含权重)~~
一、理论
网络效果的提升除了改变网络结构外,还有一群人在研究损失层的改进,本篇博文要介绍的就是较为新颖的center loss。
对于常见的图像分类问题,我们常常用softmax loss来求损失。以MNIST数据集为例,如果你的损失采用softmax loss,那么最后各个类别学出来的特征分布大概如下图:
一共10个类别(代表0-9十个数字),用不同的颜色表示。从上图可以看出不管是训练数据集还是测试数据集,都能看出比较清晰的类别界限。
1.1 为什么要用centerloss
在图像识别中,一个很关键的要素就是图像中提取出来的特征,它关乎着图像识别的精准度。而通常用的softmax输出函数提取到的特征之间往往接的很紧,无太大的明显界限。在根据这些特征做识别的时候会出现模棱两可的情况,那么怎么让提取到的特征之间差异性更大从而提高识别的正确率就成了图像识别的一个重大问题。