支持向量机 (Support Vector Machine, SVM)

1. 定义(与逻辑回归(Logistic Regression, LR)的比较)

1. Hypothesis函数:
LR:

hθ(x)=g(θTx)=11+eθTx

SVM:

hθ(x)=1if   θTx0hθ(x)=0if   θTx<0

2. Cost函数:
LR:

1mi=1m[y(i)(loghθ(x(i)))+(1y(i))(log(1hθ(x(i))))]+λ2mj=1nθ2j

SVM:

Ci=1m[y(i)cost1(θTx(i))+(1y(i))cost0(θTx(i))]+12j=1nθ2j
其中 cost1,cost0 的图像( θTx z ):

这里写图片描述

由图像可知,为使Cost函数最小,需要:
y=1时,尽量使 θTx1
y=0 时,尽量使 θTx1


2. 用Kernel函数定义新特征

1. 原理

给定训练样本 (x(1),y(1)),(x(2),y(2)),...,(x(m),y(m))
l(1)=x(1),l(2)=x(2),...,l(m)=x(m)

对任一 x ,有:
f1=similarity(x,l(1))f2=similarity(x,l(2))fm=similarity(x,l(m))
即用Kernel函数表示 x l的相似程度。一般常将高斯函数用作Kernal函数 (Gaussian Kernel):
f(x)=ae(xb)22c2

由此可得特征向量 (Feature Vector):
f=f0f1f2fm
类似 x0 f0=1

即实现了原特征向量的如下映射:
XRn+1fRm+1

2. Hypothesis函数:

y=1if   θTf0y=0if   θTf<0

3. Cost函数 (n=m)

Ci=1m[y(i)cost1(θTf(i))+(1y(i))cost0(θTf(i))]+12j=1nθ2j

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值