metric deep learning loss

1. softmax loss

Forward:

Zj=wTyjxi+byj1

pj=eZjkeZk2

Lk=jqj,klogpj3

Backward:
pjZm=pj(1pj),m=j

pjZm=pjpm,mj

LkZm======jqj,klogpjZmjqj,k1pjpjZmj=mqj,k1pjpj(1pj)mjqj,k1pj(pjpm)j=mqj,k(1pj)mjqj,k(pm)j=mqj,k(1pj)mjqj,k(pm)pmqm,k

Liwk=LiZmZmwk=xTi(pmqm,i)

wkL=1/NixTi(pmqm,i)+2λwk

交叉熵softmax注意事项:
1. 在用softmaxloss训练模型时,如果学习率太大,可能会导致loss=NAN。考虑上面第(2)式子,如果j=k时, pj 趋近于0,(3)loss就会nan。如果出现这种情况,可以考虑用较小的学习率。也有可能是初始化权重太大,尝试用不同的初始化策略,比如用xaiver把初始化的权重再除以10或100,尝试加batch_normalizetion层,可以把输出scale较小的范围。
2. 考虑数值计算稳定性情况下的Softmax损失函数
pj=eZjmax(Zj)keZkmax(Zj)

因为指数计算和指数求和的结果可能非常大,会出现overflow,超出浮点数的范围。

2. Center loss

Foward:

Lc=12i=1m||xicyi||22

xi :第i张图片的特征值
cyi :该图片所属分类的中心(该分类的特征值的中心)
Backward:
Lcxi=xicyi

cjLc=iδ{yi=j}(cjxi)1+iδ{yi=j}

在线更新 cj :
cj+1=cjcjLc

3.Triplet Loss

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值