Logistic回归模型和惩罚模型

Logistic回归模型

主题思想

是一个分类模型,通过对数据的分类边界线建立回归公式,从而实现分类。

激活函数

将连续的数值转化成0或1的输出。

Heaviside函数(阶梯跳跃函数):

  • 0到1的跳跃过程不平滑

在这里插入图片描述
在这里插入图片描述

Sigmoid函数:

  • 0到1的渐变过程平滑

在这里插入图片描述
在这里插入图片描述

Logistic回归模型实现过程:

  1. 将样本特征值与回归系数相乘
  2. 再将所有特征值与回归系数的乘积相加
  3. 最后将加和代入sigmoid函数
  4. 输出一个范围在0-1之间的值
  5. 结果大于0.5的样本归入1类,小于0.5的归入0类

Logistic回归模型公式:
在这里插入图片描述
Logistic损失函数:对数似然损失函数
在这里插入图片描述
即:
在这里插入图片描述

梯度下降法

  • 无约束多元函数极值求解方法
  • 一种常用的机器学习参数求解方法
  • 通过迭代得到最小化的损失函数所对应的模型参数

基本思路:

  • 在求解目标函数E(a) 的最小值时,a沿着梯度下降的方向不断变化求解最小值

什么是梯度:

假设优化目标是求解函数E(a)的最小值

  • 参数a的梯度为函数E(a)的偏导数
  • 因此a的迭代公式为:
    在这里插入图片描述
    其中阿尔法为步长

什么是步长:

  • 步长是梯度下降迭代的速度控制器
  • 步长调小:收敛速度慢
  • 步长太大:可能跳过函数最小值,导致发散

参数求解:梯度下降法
循环a和b:
在这里插入图片描述
设置循环次数或者阈值,当达到循环次数或者两次的值小于阈值时,迭代终止。

惩罚模型

惩罚(正则化)定义: 通过在模型损失函数中增加一个正则项(惩罚项)来限制模型的复杂度

惩罚项: 一般来说都是一个随着模型复杂度增加而增加的单调递增函数

惩罚项(正则化)的形式:
假设一个模型的损失函数为:
在这里插入图片描述

则加了惩罚项的损失函数为
在这里插入图片描述

优化目标则变成
在这里插入图片描述
正则化的优化目标:求解参数使得模型的误差最小,同时模型的复杂度最低

惩罚项(正则化)的目的:通过降低模型的复杂度,从而防止过拟合,提高模型的泛化能力

解释一:

  • 奥卡姆剃刀原理
  • 解释:能够用简单的方法达到很好的项目,就没有必要使用复杂的方法
  • 原理推广:如果简单的模型就能够达到很好的预测效果,就没有必要选择复杂的模型

解释二:

  • 在模型中使用更多的自变量,一般情况下都会提升模型在训练数据集上的表现,但同时也会提高模型的复杂度,降低模型在验证集上的泛化能力,造成过拟合。
常用的惩罚项(正则化)

以线性回归模型的损失函数为例,假设线性回归模型需要求解的参数为列向量A,数据集中有N个样本

  • L1正则系数:lasso回归
    在这里插入图片描述
    (所有参数绝对值之和)
  • L2正则系统:ridge回归
    在这里插入图片描述
    (所有参数平方的和再开方)

常用的惩罚项(正则项)特性

L1正则系数:lasso回归

  • L1是模型各个参数的绝对值之和
  • L1可以将特征参数约束到0,因此L1会趋向于产生少量的特征,而其他的特征都是0
  • L1也因此具有特征筛选的功能(被筛除的特征特征参数为0)
  • L1通过融入少量的特征来防止过拟合

L2正则系统:ridge回归

  • L2是模型各个参数的平方和的开方值
  • L2只能减少特征参数值,让参数接近0,但不能将参数约束到0
  • L2通过减少特征的参数值来防止过拟合
  • 1
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Jepson2017

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值