DataWhale机器学习——第六章支持向量机学习笔记

第六章 支持向量机

6.1 间隔与支持向量 支持向量机(SVM)是一种二分类模型,通过最大化分类间隔找到最优分类超平面。支持向量是离决策边界最近的样本点。

6.2 对偶问题 对偶问题通过拉格朗日乘子法,将原始优化问题转换为对偶问题,使得求解高维空间中的最优超平面变得更为简单。

6.3 核函数 核函数用于将低维数据映射到高维空间,使得非线性可分问题在高维空间中变得线性可分。常见核函数有线性核、多项式核和高斯核。

6.4 软间隔与正则化 软间隔SVM通过引入松弛变量,允许一定的分类错误,提高模型的泛化能力。正则化参数用于平衡分类间隔和分类错误。

6.5 支持向量回归 支持向量回归(SVR)用于解决回归问题,通过引入ε不敏感损失函数,控制预测误差范围。

6.6 核方法 核方法广泛应用于各种机器学习算法中,如核PCA、核LDA等,通过核函数将线性方法扩展到非线性情况。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值