Online SVM 和 Hinge Loss

在线学习意味着应用增量学习方法来处理新增样本。

对于 linear SVM 问题,求解方法之一是利用 Gradient Descent 最小化如下所示的代价函数(有SVM原问题得到),但遗憾的是与基于二次规划的求解方法相比,收敛速度要慢得多。

【式-1】线性SVM分类代价函数

J(w,b)=12wTw+Ci=1mmax(0,1yi(wTxi+b)) J ( w , b ) = 1 2 w T w + C ∑ i = 1 m max ( 0 , 1 − y i ( w T x i + b ) )

Hinge Loss

【式-2】Hinge Loss function

max(0,1t) max ( 0 , 1 − t )

Hinge Loss 在 t<1 t < 1 时梯度为 -1,在 t>1 t > 1 时梯度为0,在 t=1 t = 1 处不可导,但可以利用次导数:即 0 和 -1 之间的任何值。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值