吴恩达机器学习之顺序最小化优化算法

核函数的定义

定义映射 xϕ(x) ,其中 xR ϕ(x) 是一个向量
核函数定义①:
k(x,z)=(xTz)2=(ixizi)(jxjzj)
=ij(xixj)(zizj)=(ϕ(x)Tϕ(z))
其中 x,zRn ,, ϕ(x)=x1x1x1x2xnxn ,是一个 n xn维向量
核函数定义②:
k(x,z)=(xTz+c)2
核函数定义②:
k(x,z)=(xTz+c)d
xϕ(x),zϕ(z) k(x,z)={largesmallx,zotherwise
可以用一种高效的算法也就是内积去计算 k(x,z) 而不用显式的表示出 ϕ(x)
核函数 k(x,z) 是衡量 x,z 的相似度
我们的目的是证明存在 ϕ ,使得 k(x,z)=<ϕ(x),ϕ(z)>
假设 k 是一个有效的核函数,给定一个样本集{x1,x2,,xm}
kij=k(xi,xj)
zTkz=ijzikijzj=ijziϕ(xi)Tϕ(xj)zj
=ijzikϕ(xi)kϕ(xj)kzj
=kijziϕ(xi)kϕ(xj)kzj
=k(iziϕ(xi)k)20 ,所以 k 是一个半正定矩阵

非线性决策边界(L1 norm 软间隔SVM)

SVM原始问题:
min_w,bfrac12w2 s.t.:yi(wTxi+b)1
在软间隔SVM,原始问题变成:
minw,b,ξ12w2+ciξi s.t.:yi(wTxi+b)1ξi,ξi0
拉格朗日算子:
L(w.b,ξ,α,r)=12w2+ciξiiαi(yi(wTxi+b)1+ξi)iriξi
对偶问题
maxW(α)=iαi12ijyiyjαiαj<xi,xj> s.t.:iαiyi=0 0αic
收敛条件:
αi=0yi(wTxi+b)1
αi=cyi(wTxi+b)1
c>αi>0yi(wTxi+b)=1

坐标上升法

对于没有限制的优化问题 maxW(α1.α2,,αm) ,除了用牛顿法和梯度下降法,还可以用坐标上升法。
坐标上升法的原理是每次改变一个参数 αi ,求解 αi=maxW(α1,α2,,αi1,αi,αi+1,,αm) ,然后对 i 做循环1到m

smo算法(序列最小化算法)

该算法对坐标上升法进行改进,每次改变两个参数
选择参数αi,αj,固定其他参数,使得 W 对这两个参数最优且满足约束条件
仅对α1,α2进行推导( iαiyi=0 )
更新 α1,α2 α1y1+α2y=mi=3αiyi=ξ
W(α1,α2,,αm)=w(ξα2y2y1,α2,,αm)=aα22+bα2+c

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值