Classification loss

为何在识别领域表现不好?
其原因在于Softmax本身的定义,它正式是softmax函数加上交叉熵损失。其目的是使所有类在概率空间中具有最大的对数似然性,即确保所有类别都被正确分类,以及撤销和验证任务需要的是具有更好泛化性能的度量空间。一个度量空间,保证正确的分类并保证良好的泛化。虽然相关性很强,但并不直接相同。
Softmax能够放大微小类别之间的logit差异

Focal loss

motivation:训练数据难易度不同
方法:减小易分样本的损失权重
在这里插入图片描述
在这里插入图片描述

Center loss

motivation:减小类内距离
方法:减小每个样本离该类中心的距离的平方和
在这里插入图片描述
类中心更新方法:在每一个mini-batch中更新类中心。loss为该类样本到中心距离。
在这里插入图片描述

Contrastive center loss

motivation: 缩小类内距离的同时增大类间距离
方法:对类之间的小距离进行处罚,分母是同形式的距离不同类中心点间的距离。
在这里插入图片描述

Ring loss

motivation:特征归一化或权重归一化可以在一定程度上控制网络对简单或困难样本的关注程度。具体点是,如果不进行约束,网络总是希望使单个样本的特征长度和重量更大,并使难度样本的模型和权重更小。当特征向量范数相同时,角边距最大。
方法:进行特征归一化
在这里插入图片描述

arcface loss 系列

L-softmax

由于
在这里插入图片描述
在这里插入图片描述
softmax 等价于
在这里插入图片描述
在这里插入图片描述
有两个boundary,促使网络学到类间距离更大的,类内距离更小的特征。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值