机器学习基础算法12-回归

一、线性回归

最重要且常见的回归
假设
机器学习当中往往伴随着假设
1.假设的内涵性:就是根据常理应该是正确的
2.假设的简化性:假设只是接近事实,往往需要做若干假设
3.假设的发散性:在某个简化的假设下推导得出的结论,不一定只有在假设成立时,结论才正确。

1.最小二乘法的本质

在这里插入图片描述
最小二乘法的推导
在这里插入图片描述
在这里插入图片描述

2.最小二乘法之正规方程-θ解析过程

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
加入λ扰动
在这里插入图片描述
在这里插入图片描述

3. L1正则化与L2正则化原理简述

  • 线性回归正则化–>防止过拟合
    目标函数:
    在这里插入图片描述

  • L2正则化–>岭回归
    作用:使θ中的每个元素都很小,接近于0,故目标函数增加平方喝损失–>类似条件极值
    目标函数:
    在这里插入图片描述

  • L1正则化–>LASSO–>特征选择–>稀疏性
    目标函数增加绝对值喝损失
    目标函数:
    在这里插入图片描述

  • Elastic Net
    L1,有特征选择能力,但是性能不好
    L2,没有特征选择能力,但是性能好
    两者性能的补充,目标函数:
    在这里插入图片描述

4.交叉验证

如:十折交叉验证
在这里插入图片描述
预设几种超参数组合,在训练集上得到模型。然后再验证数据上买魅族超参数都采用交叉验证来进行评估。最后选出最优参数组合简历模型。

广义逆矩阵与SVD

在这里插入图片描述
求伪逆后,直接乘y,就能得到θ
在这里插入图片描述

5.梯度下降算法

当特征较复杂时,正规方程求解过慢,此时,就需要梯度下降算法来求解
在这里插入图片描述
只能找到局部最小值

1)梯度方向

在这里插入图片描述

2)三种梯度下降算法

批量梯度下降法-BGD
在这里插入图片描述
贪心(greed)
在这里插入图片描述
随机梯度下降法SGD
在这里插入图片描述
折中:mini-batch SGD实际中用的最多,但是简称为SGD
在这里插入图片描述
在这里插入图片描述

R方

在这里插入图片描述

6.局部加权线性回归

在这里插入图片描述
在这里插入图片描述

二、Logistic回归-二分类

在这里插入图片描述

1.Logistic回归参数

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.线性模型GLM

在这里插入图片描述

3.对数线性模型

在这里插入图片描述

4.Logistic回归的损失函数

在这里插入图片描述
在这里插入图片描述

三、多分类:Softmax回归

在这里插入图片描述

总结在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值