支持向量机—合页损失函数

合页损失函数

线性支持向量机之前我在别的博客中都已
支持向量机中最终将我们学习的问题转化为约束优化问题
在这里插入图片描述
但线性支持向量机学习还有另外一种解释,就是最小化以下目标函数:
在这里插入图片描述对于“+”函数它的作用就很明显,若样本点(x,y)被正确分类则使其损失为0,若被错误分类,则损失为1-y(w.x+b),所以当我们最小化这个目标函数时,也可以达到得到的模型尽量将样本全部正确分类。且后面又有一个||w||2的惩罚项,这里其实的作用就是使超平面离最近的样本点距离最大化,提高模型的泛化能力,||w||2前面有一个数学符号“拉姆塔”,它的作用就是起一个“倾斜”的作用,当“拉姆塔”很大时,此时模型更照顾使最大间隔更大,当他很小时,说明此时我们更希望误分类点更少。
一个小小的数学符号就可以对一个模型产生那么大的影响,我觉得挺值得我们思考的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值