b标签设置margin值没用_softmax loss加margin系列:增大类间距离

本文探讨了softmax损失函数的改进,重点介绍了大型margin在softmax损失中的应用,如Large-Margin Softmax Loss、A-Softmax (SphereFace)、L2-Constrained Softmax Loss以及Arcface等。这些方法通过增加类间距离,提升模型区分度,优化人脸识别的性能。
摘要由CSDN通过智能技术生成

1. softmax指示的改进空间

首先回顾一下softmax的公式:

其中,

是m维特征向量,
是由特征向量生成的logits,共有K类。

指数函数

单调递增,因此,logits越大,相应类输出置信度
也越大。于是有,softmax依据logits大小做决策。

假设有两类输出,

,自然是选择值更大的那个,决策边界为:

,写成向量内积形式:

,即

f8052cf120e70643c8201fa6885b724c.png

softmax只有一个决策边界,如果

之间的夹角比较小,位于它们之间的特征
就容易在类别1和类别2之间混淆。下面的损失函数,就是通过给决策边界加margin,拉大
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值