关于SVM与hingeloss

今天看ranknet的加速,到损失函数推导部分,想起hinge loss,又想起SVM经常使用hinge loss用于优化模型。于是思考一下为什么SVM要与hinge loss搭配。
hinge loss = max(0, 1-z), 在SVM中z=yi(wxi+b)
SVM是通过支持向量来优化模型的,以二分类为例,yi取值为{-1,1},代表在分类超平面左侧和右侧,期望模型预测的wxi+b与yi同号,因此当同号时z=1,loss=0不需要优化,当异号时模型误判需要计算loss更新参数,此时z<1,所以1-z>0,因此loss=1-z,会计算1-z的梯度进行反传并更新参数

https://blog.tsingjyujing.com/ml/recsys/bpr_and_hinger
https://blog.tsingjyujing.com/ml/recsys/ranknet

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值