核函数的定义
定义映射 x→ϕ(x) ,其中 x∈R , ϕ(x) 是一个向量
核函数定义①:
k(x,z)=(xTz)2=(∑ixizi)(∑jxjzj)
=∑i∑j(xixj)(zizj)=(ϕ(x)Tϕ(z))
其中 x,z∈Rn ,, ϕ(x)=⎧⎩⎨⎪⎪⎪⎪⎪⎪x1x1x1x2⋮xnxn ,是一个 n xn 维向量
核函数定义②:
k(x,z)=(xTz+c)2
核函数定义②:
k(x,z)=(xTz+c)d
x→ϕ(x),z→ϕ(z) , k(x,z)={largesmallx,z是相似的otherwise
可以用一种高效的算法也就是内积去计算 k(x,z) 而不用显式的表示出 ϕ(x)
核函数 k(x,z) 是衡量 x,z 的相似度
我们的目的是证明存在 ϕ ,使得 k(x,z)=<ϕ(x),ϕ(z)>
假设 k 是一个有效的核函数,给定一个样本集{x1,x2,⋯,xm}
令 kij=k(xi,xj)
zTkz=∑i∑jzikijzj=∑i∑jziϕ(xi)Tϕ(xj)zj
=∑i∑jzi∑kϕ(xi)kϕ(xj)kzj
=∑k∑i∑jziϕ(xi)kϕ(xj)kzj
=∑k(∑iziϕ(xi)k)2≥0 ,所以 k 是一个半正定矩阵非线性决策边界(L1 norm 软间隔SVM)
SVM原始问题:
min_w,bfrac12∣w∣2 , s.t.:yi(wTxi+b)≥1
在软间隔SVM,原始问题变成:
minw,b,ξ12∣w∣2+c∑iξi , s.t.:yi(wTxi+b)≥1−ξi,ξi≥0
拉格朗日算子:
L(w.b,ξ,α,r)=12∣w∣2+c∑iξi−∑iαi(yi(wTxi+b)−1+ξi)−∑iriξi
对偶问题
maxW(α)=∑iαi−12∑i∑jyiyjαiαj<xi,xj> , s.t.:∑iαiyi=0 , 0≤αi≤c
收敛条件:
αi=0⇒yi(wTxi+b)≥1
αi=c⇒yi(wTxi+b)≤1
c>αi>0⇒yi(wTxi+b)=1坐标上升法
对于没有限制的优化问题 maxW(α1.α2,⋯,αm) ,除了用牛顿法和梯度下降法,还可以用坐标上升法。
坐标上升法的原理是每次改变一个参数 αi ,求解 αi=maxW(α1,α2,⋯,αi−1,α−i,αi+1,⋯,αm) ,然后对 i 做循环1到m
smo算法(序列最小化算法)
该算法对坐标上升法进行改进,每次改变两个参数
选择参数αi,αj ,固定其他参数,使得 W 对这两个参数最优且满足约束条件
仅对α1,α2 进行推导( ∑iαiyi=0 )
更新 α1,α2 , α1y1+α2y=−∑mi=3αiyi=ξ
W(α1,α2,⋯,αm)=w(ξ−α2y2y1,α2,⋯,αm)=aα22+bα2+c