学习笔记--LinearSVM#Hardmax/softmax

functional margin#函数距离#满足最小距离条件下使最小距离最大化#泛函
r1 = minr = yi(wxi+b)
#为避免出现2r1 = 2yi(wxi+b)#3r1…
进行归一化,转化为几何距离
r = yi(w/||w||xi + b/||w||)=r1/||w||
r2 = minr
最优化问题转变为#
max||w||
实则min(s.t w,b) ||w||#在满足最小距离条件w,b,求min范数||w||的泛函问题,反正最后弄成
min(w,b)2/||w||^2
s.t. yi(wxi+b)-1>=0#集合距离最小条件下把||w||最小#实则在满足函数最小距离解的结合中去找到让||w||最大的解。
bia个图
在这里插入图片描述
实则yi(wxi+b)>=1,数据点经常难以满足这个条件,所以价格惩罚参数让它变小点:
min(w,b)0.5||w||^2+C(m1+m2+…mn)
yi(wxi+b)>=1-mi
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值