使用svm类算法之前对优化问题的一些了解

众所周知,svm类分类算法的核心思想是通过得到一个或多个超平面来将线性可分或不可分的数据来分开,而求解超平面的过程可以转换成数学上优化问题的求解,大致形式为:

minimize f0(x)

subject to fi(x)<=  bi i=1,2,3,4.。。。。

x被称为优化变量,函数f0(x)为目标函数,fi(x)为约束函数,b为约束上限,如果在所有满足约束的向量中x对应的目标函数最小,即对于任意的满足约束f1(z)<= b1......fm(z)<=bm的向量z,有f0(z)>= f0(x),则称这个x为此优化问题的最优解

如若约束函数和目标函数都是线性函数,也就是f(ax+by)=af(x)+bf(y),则次优化问题被称为线性规划,否则被称为非线性规划,svm类泛主要应用到的是线性规划和非线性规划这两种形式,线性规划形式如下所示:

minimize cTx

subject to aTix<= bi  (i为下标T上标表转置)

虽然python的cvxopt库下面的solvers模块具有能够解决优化问题的函数存在,但是如果想要深入对算法本身做研究,对优化问题的求解也要深化研究力度,作为一个简单例子的讲解,Chebyshev逼近问题

minimize maxi=1.。。。。。k|aTix-bi|

其中,优化变量x∈Rn,a1,a2。。。。。ak∈Rn。b1,b2。。。。。bk∈R为问题的参数,在参数取值确定之后即得到一个具体问题,求解上述逼近问题等价于求解如下线性规划问题

minimize t

subject to  aTix-t<= bi, i=1,2,3,。。。。k

-aTix-t<= -bi, i=1,2,3,。。。。k,其中优化变量x∈Rn,t∈R

使用SVM分类算法时,比较基础的要求是数据之间最好不能有相交(后续也有针对这一点对算法做改进的),通过超平面将两个不相交的数据集(凸集)分离开来的思想被称为超平面分离定理

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值