Gradient Descent Optimizations of SVMs: 两种用于优化SVM求解过程中的参数更新的方法——坐标轴下降法(Coordinate Descent)和动量法

作者:禅与计算机程序设计艺术

1.简介

深度学习、计算机视觉、自然语言处理等领域的火热让机器学习技术取得了很大的成功。而支持向量机(Support Vector Machine,SVM)作为一种经典的机器学习分类模型,在分类性能上也备受关注。在过去几年里,针对SVM优化求解中的一些参数,深度学习也出现了大量的研究工作,但是这些优化方法目前还没有被广泛应用到SVM中。

本文将介绍两种用于优化SVM求解过程中的参数更新的方法——坐标轴下降法(Coordinate Descent)和动量法(Momentum),并根据这些方法在实际SVM上的优化实验结果进行阐述,并进一步分析其优劣及局限性。最后给出未来的研究方向和方向性探索。

2.基本概念术语说明

2.1 概念

支持向量机(Support Vector Machine,SVM)是一种基于数据点间的最大间隔线性分类器,可以用于二分类任务或多分类任务。它通过确定最靠近分割面的那些数据点,使得这些数据的“边界”(margin)最大化。分类函数由核函数的形式给出,对原始空间中的输入数据进行非线性映射后得到特征空间中的输出数据,然后通过投影进行超平面划分。

支持向量机最初是用于图像处理的分类模型,随着深度学习的兴起,SVM也越来越流行于文本、声音、图像、视频等领域的机器学习任务。它的提出主要原因之一是它的计算复杂度低,能够有效地处理高维的数据。而且,SVM相比其他机器学习方法的优点之一就是能直接找到“边界”,因此不需要事先知道训练数据所属的类别。

在本文中,我们会以支持向量机作为案例来讨论两种优化SVM求解过程中的参数更新的方法。首先,我们要理解SVM的优化

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

禅与计算机程序设计艺术

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值