arcface损失 应用分类识别_人脸识别损失函数(Center-Loss、A-Softmax、AM-Softmax、ArcFace)...

本文深入探讨了人脸识别中的多种损失函数,包括Softmax Loss、Center Loss、A-Softmax Loss、L-Softmax Loss、CosFace Loss、AM-Softmax以及ArcFace,分析它们在优化类间距离和类内距离上的作用,以提高特征的可判别性。ArcFace因其直接优化角度距离而在人脸识别任务中表现优越。
摘要由CSDN通过智能技术生成

最近在研究自编码器提取特征做分类和生成、重建。所以细致了解人脸识别的各种损失函数!

1、概要

人脸识别:输入一张图片,进行人脸检测,再提取关键点进行人脸对齐矫正,最后提取人脸特征,进行判别这个人是谁。判别这个人是谁,本质上是分类问题。

既然牵涉到分类,分类的目的就是不同类的类间间距够大,同一类的类内距离足够小。那么我们一步一步介绍人脸识别中常用的损失函数。

2、Softmax Loss

:将特征图扁平化后的输出映射到(0,1)之间,给出每个类的概率。假设最后一层特征图尺度是:

。再将这些特征输入给扁平化 为 [

] 个向量(这里的

)。下面扁平化的 [

X

] 的向量进入全连接层,全连接层的参数权重是

(

X

)(这里的

表示分类的类别数),经过全连接层处理就会得到一个 [

x

] 的向量,但是这个向量里面都每个数值的大小都没有限制,或许是无穷大,也有可能是无穷小,均有可能。因此多分类时候,往往在全连接层后面接个

层。这个层的输入是 [

x

] 的向量,输出也是 [

x

] 的向量。但是输出的每个向量都归一化到

之间。这里的

输出的向量是该样本属于每一类的概率。

公式:

上面公式中的

表示这 [

x

] 个向量中的第

个值,而下面分母表示所有值的求和。上式成功的把

归一化到

之间。优化目标:属于正确标签的预测概率最高。

下面介绍

上式中的

表示

层输出的第

的概率值。

表示一个 [

x

] 的向量,里面的

列中只有一个为1,其余为0(真实标签的那个为1,其余不是正确的为0)。这个公式有一个更简单的形式是:

其中的

是指当前样本的真实标签。

函数是个递增的函数,你预测错的概率会比你预测对的概率要大,因为前面加了一个负号。

图像分类里面常用

3、Center Loss

来自

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值