OpenCV 3.1.0支持向量机SVM

什么是支持向量机SVM


支持向量机是20世纪90年代中期发展起来的基于统计学习理论的一种机器学习方法,通过寻求结构化风险最小来提高学习机泛化能力,实现经验风险和置信范围的最小化,从而达到在统计样本量较少的情况下,也能获得良好统计规律的目的。它是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,即支持向量机的学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解。
通俗来说,支持向量机是一个能够将不同类样本在样本空间分隔的超平面。 换句话说,给定一些标记(label)好的训练样本 (监督式学习), SVM算法输出一个最优化的分隔超平面。

  • 如何评判最优的超平面?
    给定分别属于两类(圆形和正方形)的二维点,这些点可以通过直线分割。
    这里写图片描述
    可以看出,能将两类样本分开的直线有无数条。如何定义一条直线好坏的标准?
    距离样本太近的直线不是最优的,因为这样的直线对噪声敏感度高,泛化性较差。 因此我们的目标是找到一条直线,离所有点的距离最远。
    由此, SVM算法的实质是找出一个能够将某个值最大化的超平面,这个值就是超平面离所有训练样本的最小距离。这个最小距离用SVM术语来说叫做间隔(margin) 。 概括一下,最优分割超平面最大化训练数据的间隔。
    这里写图片描述
  • SVM的核心——核函数
    很多情况下需要分类的数据都是线性不可分数据。一种解决方法是选择一个核函数(Kernel)K,将原始数据映射到高维空间,使原始数据线性可分问题变为在高维空间线性可分的问题。如图所示。
    二维线性不可分三维线性可分

    常用核函数:
    ①线性核:K(x,y)=x·y
    ②多项式核:K(x,y)=[(x·y)+1]^d
    ③高斯核:K(x,y)=exp(-|x-y|^2/d^2)
    ④Sigmoid內积核:K(x,y)=tanh(a(x·y)+b)

OpenCV在很久以前就集成了SVM功能,然而升级到3.0和3.1版本后发生了很大的变化。这里只对3.1版本进行考虑。

  • 建立训练样本

    一开始训练数据用的是int类型,即
    int colors[8][3];
    Mat trainingDataMat(8, 3, CV_32SC1, colors);

    结果报错:
    OpenCV Error: Assertion failed (_samples.type() == CV_32F) in cv::ml::SVMImpl::do_train, file C:\buildslave64\win64_amdocl\master_PackSlave-win64-vc14-shared\opencv\modules\ml\src\svm.cpp, line 1370
    查询官方API发现:训练数据必须为CV_32FC1格式。
    这里写图片描述

  • 训练支持向量机

//初始化SVM
    Ptr<SVM> svm = SVM::create();
    svm->setType(SVM::Types::C_SVC);
    svm->setKernel(SVM::KernelTypes::LINEAR
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值