2017NIPS: 《Rethinking Feature Discrimination and Polymerization for Large-scale Recognition》
Github项目主页: https://github.com/sciencefans/coco_loss
文章方法简称 congenerous cosine loss, “COCO Loss”,其目的同样是:
- 拉近同类样本的特征(类内方差小)
- 拉远不同分类样本的特征(类间方差大)
相较于早些时间的Center Loss, COCO Loss 的效果更好,同时计算复杂度上也有所降低。
1. 方法介绍
下面直接介绍该Loss的实际计算流程:
(1) 输入特征与中心特征归一化
\(\hat {f^{(i)}}=\frac{\alpha f^{(i)}}{|f^{(i)}|}\)
\(\hat c_k=\frac{c_k}{|c_k|}\)
其中, \(c_k\) 为第 \(k\) 类目标的特征中心,是可以学习的,总共有 \(K\)类。 \(f^{(i)}\) 表示输入特征,\(i=1,…,N\),即batch size为 \(N\)。 此外, \(\alpha\) 是一个对