【Stanford机器学习笔记】10-Support Vector Machines

这节讲支持向量机在机器学习领域的应用

1. Large Margin Classification

1.1 Optimization Objective

通过逻辑回归的代价函数进行修改得到支持向量机的代价函数,首先定义两个函数:

Cost1(z)Cost0(z)z=θTx

这里写图片描述

根据逻辑回归模型的代价函数,我们可以得到支持向量机的代价函数及目标函数形式为:

minCi=1m[y(i)Cost1(θTx(i))+(1y(i))Cost0(θTx(i))]+12j=1nθ2j

这里写图片描述

SVM的假设函数是直接通过参数 θ 得出样本所属的类别。

从中可以看出,单个SVM分类器的作用即是把样本分成两个类别,非A即B,不像logistic regression输出的是每个类别的概率大小。

这里写图片描述

1.2 Large Margin Intuition

(1)SVM又称为最大间隔分类器,由前一节中,我们知道,当 z=θTx 远大于0时,我们就能预测样本属于正样本(y=1),当 z=θTx 远小于0时,我们就能预测样本属于负样本(y=0),根据之前对 Cost1(z) Cost0(z) 的定义,我们现在定义:
z=θTx 大于等于1时,我们就能预测样本属于正样本(y=1),当 z=θTx 小于等于-1时,我们就能预测样本属于负样本(y=0),不仅仅大于零活小于零。

这里写图片描述

(2)现在我们假设一种特殊情况,正则化项C是一个较大的值,例如C=100000;根据SVM的代价函数,

minCi=1m[y(i)Cost1(θTx(i))+(1y(i))Cost0(θTx(i))]+12j=1nθ2j

我们可以知道,如果C很大,则我们需要将
i=1m[y(i)Cost1(θTx(i))+(1y(i))Cost0(θTx(i))]=0

所以,我们可以得到当 z=θTx 大于等于1时,我们就能预测样本属于正样本(y=1),当 z=θTx 小于-1时,我们就能预测样本属于负样本(y=0)。
此时,我SVM的代价函数就会变为:
min12j=1nθ2j
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值