支持向量机笔记(一) functional and geometric margins

最近在看机器学习,感觉有点朦胧,于是写下这些知识点,在自己忘记的时候能够翻出来看看。我是以stanfordcs229的讲义为蓝本的,上面有些洋文我感觉翻译出来就失去了原有的味道,(主要是我不会翻译)。

首先我们可以回顾下logistic regression ,对于给定输入x,需要预测输出为此我们选择了,其实它的原型就是一个sigmoid function, ,然后通过梯度下降法估计出θ的值,我们预测的标准是当,我们就认为y=1,也就是说也就越大,那么对于y=1的预测也就有更高的“confidence”,对于我们一开始学的线性回归分类,如图

有一条决策线把数据分成两类,通过上面的讲解我们知道,一个点距离决策线(面)越远,那么我们对它的预测就会越有“confidence”,我们试图找到这样一个决策线,使所有的预测既正确而又有“confidence”,这样就引出了geometric margins

下面是我们的继续svm之前的一些Notation,把y的取值变成了{0,1}是为了计算方便,我们重新修改了分类函数

前面乘以y是为了保证非负性(因为f(x)<0对应的是y=-1的那些点),但是他明显不适合我们因为当我们等比例的缩放wb的值时可以使得任意大,如下图:

 

到此为止,算是完成了 Maximum Margin Classifier 的介绍,通过最大化 margin ,我们使得该分类器对数据进行分类时具有了最大的 confidence (实际上,根据我们说给的一个数据集的 margin 的定义,准确的说,应该是“对最不 confidence 的数据具有了最大的 confidence”

以上很大一部分是参考http://blog.pluskid.org/?p=632,没办法这个师兄功力太高了,希望他不要介意,另外这只是我个人的学习笔记,有误导大家的地方还请见谅,后面我将试着把这个专题写完,希望自己能坚持下去。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值