Center Learning
在每个batch里面更新对应特征和中心特征的欧氏距离,需要和softmax相结合
Large Margin softmax Loss
cos(mTheta),不正则化权重向量,中间的margin为 (m-1)/(m+1) * Theta
SphereFace Loss
cos(mTheta),正则化权重向量
Large Margin softmax Loss 和 SphereFace的 A softmax Loss是一个作者,方法的差异也仅在正则化特征权重向量
SphereFace推导了最小的m的大小,这里的边界不太好理解,mThetaA < ThetaB,当Sample属于类别A时,ThetaA < mThetaA < ThetaB,这里借鉴了Hinge Loss折页的思想,类间的边界是mThetaA
SphereFace推导m大小用了最小的类间角度要大于最大的类内角度,(m-1)ThetaA