机器学习笔记:LR(Logistic Regression)

本文详细介绍了Logistic Regression(逻辑回归)的特点、优缺点及其在分类问题中的应用。讨论了LR如何通过Logistic函数将连续值转化为离散的0/1分类,并探讨了LR的两种优化算法:批量梯度下降(BGD)和随机梯度下降(SGD)。此外,还提到了正则化的重要性,包括L1正则化(Lasso回归)和L2正则化(Ridge回归)在防止过拟合上的作用。
摘要由CSDN通过智能技术生成

格式驾驭不了,图片大小不会改,可以直接看我的有道笔记:http://note.youdao.com/noteshare?id=f8d9fdfcf0c37d43c20e7197378bb2de

  • LR特点:
    • 优点
      • 实现简单
      • 分类时计算量非常小,速度快,存储资源低
    • 缺点
      • 容易欠拟合,一般准确度不太高(正则化、减少feature数量)
      • 只能处理两分类问题(在此基础上衍生出来的softmax可用于多分类),且必须线性可分

 

  • LR(Logistic Regression):用了一个Logistic function 将线性回归的连续值映射到了{0,1}空间。试图找到不同类别之间的线性决策边界。

 

  • 目的:从训练数据特征中学习出一个0/1分类模型。求解一组权值w0w1w2....wn。

  • 数学公式推导:

 

 

  • 批量梯度下降算法BGD(Batch gradient descent)
      • 优点:可以实现全局最优
      • 缺点:每迭代一次,都要用到训练集所有数据
      • 公式推导如下:

 

 

  • 随机梯度下降算法SDG(Stochastic gradientdescent)
    • 特点:在新样本到来时对分类 器进行增量式更新,因而随机梯度下降算法是一个在线学习算法。与“在线学习”相对应,一次处理酥油的数据被称为“批处理”。

 

 

  • 正则化形式:防止过拟合,正则化可以看做是对损失函数的惩罚项,对某些参数做一些限制。

      • L1-norm(L1正则化),Lasso回归(稀疏规则算子)。稀疏。统计不为0的个数作为规则项。假设参数先验服从Laplace分布。

      • L2-norm(L2正则化),Ridge回归(岭回归)。平滑。假设参数先验为Gaussian分布。

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值