centerloss的论文解读

这篇论文 Centerloss来自Eccv2016。本文主要讲解其核心原理以及源码和实验。 
论文地址:https://ydwen.github.io/papers/WenECCV16.pdf 
代码地址:https://github.com/ydwen/caffe-face

简介

在人脸识别中,就是要学习到一种判别性好的特征。作者通过增加centerloss使得学习的特征类内距离更小。 
这里写图片描述 
在人脸识别的任务中,特征不仅仅是要可分,而且还要能够容易判别,如上图,左边的特征虽然可分,但是类间距离不够大,因此会导致错分现象,而好的特征应该像有图那样,很容易区分。 
在人脸认证任务中,常用的步骤是通过提取神经网络最后一层的通过计算余弦或者欧式距离进行判断。作者通过分析softmax学习到的特征,发现softmaxloss后的特征每一类特征较分散,如下图所示,因此作者提出了centerloss,目的是想让每一类特征更加聚合。 
这里写图片描述

Centerloss

首先回忆下softmax的公式: 
这里写图片描述 
softmax使得每一类可分,关注的是类间的距离,但并没有关注类内的问题。因此作者希望在每一个batch中,每一个样本都能向同一类的中心靠拢。即在分类时,也要向类心靠近,Loss如下: 
这里写图片描述 
因此中心的求解也是学习的过程,当x和c不一样则计算两者距离,同时c移到两者距离的中心处。 
这里写图片描述 
中心学习过程如下,在实现的过程,可将 c 等同于w的更新方式,具体可参考代码的实现过程。 
这里写图片描述

实验

我们如果要想进行实验,可以使用自己的数据集在预训练的模型上微调,可参考论文的预处理方式,lfw 99.多不是问题。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Center Loss是一种用于人脸识别和特征学习的损失函数。然而,Center Loss不能直接使用的原因是它需要考虑整个训练集,并在每次迭代中平均每个类的特征,这是低效的。因此,为了解决这个问题,我们需要对Center Loss进行一些改进。 一种解决方法是使用Mini-batch Center Loss,它在每个小批量数据上计算每个类别的特征中心。具体来说,对于每个类别,在小批量数据中统计该类别的特征,并计算出该类别的特征中心。然后,通过最小化特征与其对应类别的特征中心之间的距离,来更新特征中心。这样,我们可以在每个小批量数据上更新特征中心,而不需要考虑整个训练集。 另一种解决方法是使用在线更新的Center Loss。在线更新的Center Loss只在每个样本的前向传播过程中计算特征中心,并在反向传播过程中更新特征中心。这样,我们可以在每个样本上更新特征中心,而不需要在每次迭代中平均每个类的特征。 综上所述,为了解决Center Loss不能直接使用的问题,我们可以使用Mini-batch Center Loss或在线更新的Center Loss来改进Center Loss的效率和实用性。 #### 引用[.reference_title] - *1* *2* [CenterLoss原理详解(通透)](https://blog.csdn.net/weixin_54546190/article/details/124504683)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [CenterLoss | 减小类间距离](https://blog.csdn.net/qiu931110/article/details/106108936)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值