线性回归、逻辑回归、SVM以及凸优化的一些推导总结

这篇博客总结了机器学习中的线性回归、逻辑回归和支持向量机(SVM)的模型推导与实现。线性回归通过梯度下降进行参数优化,逻辑回归利用同样方法处理分类问题。SVM的目标是最优间隔,通过拉格朗日乘子法解决等式约束,涉及KKT条件,优化过程中可能使用SMO算法。博客还探讨了Hinge Loss及其在SVM训练中的应用,并讨论了是否能用梯度下降训练SVM。
摘要由CSDN通过智能技术生成

机器学习部分模型推导与实现

Linear Regression 线性回归

gradient descent相关计算推导

在这里插入图片描述

Logistic Regression 逻辑回归

gradient descent相关计算推导

在这里插入图片描述

Supprot Vector Machine 支持向量机

优化目标(硬间隔SVM 又称最大间隔分类器

在这里插入图片描述

支持向量是位于间隔上的数据点

优化目标:间隔margin最大

margin = 2/||w|| 要这个最大

即要minimize ||w||/2

约束条件

在这里插入图片描述

由上图可知,

要求yi(wx+b)>=1

拉格朗日乘子、松弛变量与KKT条件

要从梯度去理解!!!

一个问题说明拉格朗日乘子法解决等式约束

现在我们要解决这样一个问题:x^2*y=3 这个函数距离原点最近的距离是多少。

函数曲线:

在这里插入图片描述

梯度图像
在这里插入图片描述
在这里插入图片描述

梯度理解拉格朗日乘子法

在这里插入图片描述

梯度与等值面:https://zhuanlan.zhihu.com/p/111723231

对偶问题

参考:https://zhuanlan.zhihu.com/p/114574438

https://blog.csdn.net/frostime/article/details/90291392

SVM优化推导

https://blog.csdn.net/d__760/article/details/80387432

求解α:SMO算法,见上链接

Hinge Loss

https://blog.csdn.net/weixin_43373042/article/details/107704383?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522162936210216780271588195%2522%252C%2522scm%2522%253A%252220140713.130102334…%2522%257D&request_id=162936210216780271588195&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2allbaidu_landing_v2~default-1-107704383.first_rank_v2_pc_rank_v29&utm_term=SVM%E4%BC%98%E5%8C%96%E6%8E%A8%E5%AF%BC&spm=1018.2226.3001.4187

能否用梯度下降训练SVM

https://www.zhihu.com/question/265751466

“ 麋路 ”的回答

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值