SVM

SVM – support vector machine 支持向量机
是一个有监督的学习模型,通常用来进行模式识别、分类以及回归分析。
核函数 的作用就是隐含着一个从低维空间到高维空间的映射,而这个映射可以把低维空间中线性不可分的两类点变成线性可分的。

https://www.leiphone.com/news/201705/v10u2BOvGHEbzBpV.html 简单解释相关概念

对偶问题
对偶理论是研究线性规划中原始问题与对偶问题之间关系的理论
每一个线性规划问题(称为原始问题)有一个与它对应的对偶线性规划问题(称为对偶问题)
对偶问题:每一个线性规划问题都伴随有另一个线性规划问题
原始问题:原来的线性规划问题则称为原始线性规划问题
原始问题和对偶问题的标准形式如下:
设原始问题为:
min z=cx
s.t. Ax <= b
x>= 0
则对偶问题为:
max w=yb
s.t. yA >= c
y>=0

VC维
确定一个r维空间的点数,在r 维空间中,线性决策面的VC维为r+1

置信风险: 分类器对 未知样本进行分类,得到的误差。
经验风险: 训练好的分类器,对训练样本重新分类得到的误差。即**样本误差
结构风险:**置信风险 + 经验风险

结构风险最小化SRM(structured risk minimize)就是同时考虑经验风险与结构风险。在小样本情况下,取得比较好的分类效果。保证分类精度(经验风险)的同时,降低学习机器的 VC 维,可以使学习机器在整个样本集上的期望风险得到控制,这应该就是SRM的原则

支持向量机性能的优劣主要取决于核函数的选取

支持向量机主要应用和研究的热点?
在模式识别领域中的文本识别,中文分类,人脸识别等;同时也应用到许多的工程技术和信息过滤等方面.

支持向量机的优缺点?
优点:避开高维空间的复杂性,简化高维空间问题的求解难度
基于小样本统计理论的基础上的,这符合机器学习的目的
比神经网络具有较好的泛化推广能力
缺点:如何确定核函数,现在还没有合适的方法
原始分类器不加修改仅适用于处理二分类问题
在求解问题分类时,要求解函数的二次规划,这就需要大量的存储空间

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值