非线性支持向量机(SVM)与核函数(kernel),python实现

将线性支持向量机向非线性支持向量机推广需要用到核函数技巧(kernel trick),一般分为两步:1、使用一个变换将原空间的数据映射到新空间;2、在新空间用线性分类器分类学习从训练数据中学习分类模型。核函数运用到支持向量机就是通过一个非线性变换将输入空间对应到一个特征空间,使得在输入空间Rn\textbf R^nRn中的超曲面模型对应于特征空间中的超平面模型。这样,分类问题就可以通过在特征...
摘要由CSDN通过智能技术生成

将线性支持向量机向非线性支持向量机推广需要用到核函数技巧(kernel trick),一般分为两步:
1、使用一个变换将原空间的数据映射到新空间;
2、在新空间用线性分类器分类学习从训练数据中学习分类模型。
核函数运用到支持向量机就是通过一个非线性变换将输入空间对应到一个特征空间,使得在输入空间 R n \textbf R^n Rn中的超曲面模型对应于特征空间中的超平面模型。这样,分类问题就可以通过在特征空间中求解线性支持向量机完成。
核函数的定义:
ϕ ( x ) : X → H \phi(x):X→H ϕ(x):XH
K ( x , z ) = ϕ ( x ) ⋅ ϕ ( z ) K(x,z)=\phi(x)\cdot \phi(z) K(x,z)=ϕ(x)ϕ(z)
其中, ϕ ( x ) \phi (x) ϕ(x)为映射函数, ϕ ( x ) ⋅ ϕ ( z ) \phi(x)\cdot \phi(z) ϕ(x)ϕ(z)为内积
K ( x , z ) K(x,z) K(x,z)称为核函数。
使用核函数的优势在于,在核函数 K ( x , z ) K(x,z) K(x,z)给定的情况下,可以利用解线性分类问题的方法求解非线性分类问题的支持向量机。学习是隐式地在特征空间进行的,不需要显示地定义特征空间和映射函数。在实际应用中,往往是依赖领域知识直接选择核函数,核函数选择的有效性需要通过实验验证。

常用的核函数

1、多项式核函数(polynomial kernel function)
K ( x , z ) = ( x ⋅ z + 1 ) p K(x,z)=(x\cdot z+1)^p K(x,z)=(xz+1)p
对应的支持向量机是一个p次多项式分类器,在此情形下,分类决策函数为:
f ( x ) = s i g n ( ∑ i = 1 N s α i ∗ y i ( x i ⋅ x + 1 ) p + b ∗ ) f(x)=sign(\sum_{i=1}^{N_s}\alpha_i^*y_i(x_i\cdot x+1)^p+b^*) f(x)=sign(i=1Nsαi

  • 2
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值