11、数据分析--逻辑回归

线性回归(用特征之间的规律进行回归处理)是处理连续性的,

逻辑回归(用特征之间的规律进行逻辑处理)属于分类是处理离散性的

​ 关于判断其实就是二分类问题

逻辑回归的基础还是使用了线性回归来处理,只是把模型进行了调整,转化为概率问题

逻辑回归(进行二分类的最快算法,深度学习都可用到)

概念:逻辑回归,即逻辑模型,也译作“评定模型”、“分类评定模型”

回归要求得到的外标签的数值是连续的,逻辑回归则是要进行二分类问题的模型,通过标签在图像上的表示,然后用线性回归的图像线来分隔出各种外标签区域,当数据在哪个区域时来进行判断。所以说逻辑回归应用到了线性回归来解决分类的问题

常用于做数据的初步判断,(推荐算法,医疗诊断等)

​ 运用于推荐算法:评判给用户呈现的内容是否是用户喜欢看到的,这里做出了判断就是二分类的体现

是通过线性模型完成分类效果(线性可分)

sigmoid函数:

sigmoid将线性问题转化为概率问题,函数输出的结果值是把线性回归数据范围映射到了0~1之间了

函数中当变量取0时为1,取正无穷时无限趋于0。这里的变量就是wx+b,属于线性回归的外标签,这样就能将线性问题转化为概率问题,这里的0~1就成了概率问题。

将结果值压缩到0-1之间(0负,1正)

预测值在0.5附近时,可以更快的进行下降,将预测值更加贴近于0或1的数值

0.5就是阈值(求导得到最值),00.5对应的就是负类别,0.51对应的就是正类别,阈值位置的梯度大,那么数据分配到的位置就越靠近0或1,这样的模型才够准确。比如判断正类别时0.55的概率不如0.99的概率更准确

sigmoid函数的中间导数大,两侧导数小,这里的sigmoid求导就是为了能利用到梯度下降从最大值开始向两边0或1下降,然后调整模型通过划分的正负线性回归界限图像线参考,然后建立逻辑回归模型来更好的作二分类判断。注意的是线性回归的求导是对wx+b求导,但是逻辑回归则要对sigmoid函数求导,wx+b只是sigmoid函数的一个参数

梯度下降在调整参数和权重的同时也在调整每个模型预测出来的概率

梯度下降都是往下的,sigmoid函数求导最低的是概率为0或1的位置

注:样本点距离线性模型的区分线越近,就证明概率越不确定

损失函数<

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

T o r

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值