浅显易懂的逻辑回归

     今天梳理一下逻辑回归,这个算法由于简单、实用、高效,在业界应用十分广泛。注意咯,这里的“逻辑”是音译“逻辑斯蒂(logistic)”的缩写,并不是说这个算法具有怎样的逻辑性。
    前面说过,机器学习算法中的监督式学习可以分为2大类: 
    分类模型:目标变量是分类变量(离散值); 
    回归模型:目标变量是连续性数值变量。
    逻辑回归通常用于解决分类问题,例如,业界经常用它来预测:客户是否会购买某个商品,借款人是否会违约等等。实际上,“分类”是应用逻辑回归的目的和结果,但中间过程依旧是“回归”。
    为什么这么说?因为通过逻辑回归模型,我们得到的计算结果是0-1之间的连续数字,可以把它称为“可能性”(概率)。
    对于上述问题,就是:客户购买某个商品的可能性,借款人违约的可能性。然后,给这个可能性加一个阈值,就成了分类。例如,算出贷款违约的可能性>0.5,将借款人预判为坏客户。

1.从线性回归说起

考虑最简单的情况,即只有一个自变量的情况。比方说广告投入金额x和销售量y的关系,散点图如下,这种情况适用一元线性回归。
在这里插入图片描述在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.Sigmod函数

在这里插入图片描述

3.推广到多元

在这里插入图片描述

4.似然函数

在这里插入图片描述

5.最大似然估计

在这里插入图片描述
在这里插入图片描述

6.损失函数

在机器学习领域,总是避免不了谈论损失函数这一概念。损失函数是用于衡量预测值与实际值的偏离程度,即模型预测的错误程度。也就是说,这个值越小,认为模型效果越好,举个极端例子,如果预测完全精确,则损失函数值为0。在线性回归一文中,我们用到的损失函数是残差平方和SSE:
在这里插入图片描述

7.梯度下降法求解

要开始头疼的公式推导部分了,不要害怕哦,我们还是从最简单的地方开始,非常容易看懂
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

9 总结

(1) 获取lable=1 的概率p 则0的概率为1-p 为了可以用一个统一的式子表示 推出
py * (1-p)(1-y)
(2) 根据最大似然 写出连成的函数 为了方便计算(p在0,1之间,连乘结果很小),引入log
(3)可以利用梯度下降计算

10 逻辑回归为什么使用sigmod函数

理解推导第一个角度即可
在这里插入图片描述在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值