支持向量机打卡

1.什么是支持向量
过两类样本中离分类面最近的点且平行于分类面的训练样本就叫做支持向量
2.支持向量机的推导
support vector machine(SVM),通俗来讲,它是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,其学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解。给定训练样本,支持向量机建立一个超平面作为 决策曲面,使得正例和反例之间的隔离边缘最大化。
3.SVM的损失函数
监督学习实际上就是一个经验风险或者结构风险函数的最优化问题。风险函数度量平均意义下模型预测的好坏,模型每一次预测的好坏用损失函数来度量。它从假设空间F中选择模型f作为决策函数,对于给定的输入X,由f(X)给出相应的输出Y,这个输出的预测值f(X)与真实值Y可能一致也可能不一致,用一个损失函数来度量预测错误的程度。损失函数记为L(Y, f(X))。

4.SVM的核函数有哪些,核函数的作用是什么
在线性不可分的情况下,支持向量机首先在低维空间中完成计算,然后通过核函数将输入空间映射到高维特征空间,最终在高维特征空间中构造出最优分离超平面,从而把平面上本身不好分的非线性数据分开。如图所示,一堆数据在二维空间无法划分,从而映射到三维空间里划分。
多项式核,高斯核,线性核
核函数的价值在于它虽然也是将特征进行从低维到高维的转换,但核函数绝就绝在它事先在低维上进行计算,而将实质上的分类效果表现在了高维上,也就如上文所说的避免了直接在高维空间中的复杂计算。
5.硬间隔和软间隔
硬间隔定义超平面在训练集上的间隔为训练集中的点到超平面的最短距离。
软间隔软间隔的“软”在于它允许一点点错误存在,也就是去容忍那些特异点的存在。

参考博客
1.https://blog.csdn.net/b285795298/article/details/81977271?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.channel_param&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.channel_param
2.https://blog.csdn.net/v_july_v/article/details/7624837
3.https://mp.weixin.qq.com/s?src=11&timestamp=1598448455&ver=2546&signature=oQNEi5uwgE5j8S3qCkTD1E8FAStadU4Fl8ESG8g9qkSgf331Ic21TYDQEmdPzR2peJHt4iUoVUXsTPNI5ggqC0aKVhToFfI51gdDnOspOIJNQ-LuzKxgp36mhGb6&new=1

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值