逻辑回归、LR算法、LR优缺点、LR推导、LR损失函数

LR–逻辑回归

LR, Logistic Regression,逻辑回归
之前笔记:逻辑回归
推荐视频链接:
逻辑回归
逻辑回归

LR作用?
  • 常用的处理二分类问题的线性模型

二分类:分类目标只有两种

判断是猪吗-----是、不是

回归和分类的区别?
  • 回归模型的输出是连续的
  • 分类模型的输出是离散的
    在这里插入图片描述
逻辑回归函数?

逻辑回归=线性回归+sigmoid函数

  • 线性回归就是用一条直线来拟合自变量和因变量之间的关系

把回归变成分类?

  • sigmoid函数
    参考:sigmoid
    将y压缩为0-1,y小于0–变成[0,0.5],y大于0–变成[0.5,1]
    在这里插入图片描述
  • 逻辑回归:把线性函数的输出z,当做sigmoid函数的输入,最后得到y。当 y ∈ [ 0 , 0.5 ] y\in[0,0.5] y[0,0.5],当 y ∈ [ 0 , 1 ] y\in[0,1] y[0,1]
  • 逻辑回归函数:

    如何去求解出好的参数?
  • 利用到好的损失函数
逻辑回归损失函数?

在这里插入图片描述

  • 损失函数是体现“预测值”与“实际值”相似程度的函数
  • 损失函数越小,模型越好

解读损失函数

  • 其中y表示样本的真实标签,(0或1)
  • a表示预测的结果是0或者1的概率,a的取值范围为[0,1]
  • 对于上述损失函数,分开讨论两种预测结果—(正|反)
  • 正:y=1,loss=-yIna,当a越接近1时,yIna越大,loss越小
  • 负同理
LR的推导?

我们采用𝑦 ∈ {0, 1} 以符合Logistic 回归的描述习惯.

为了解决连续的线性函数不适合进行分类的问题,我们引入非线性函数 𝑔 ∶ R 𝐷 → ( 0 , 1 ) 𝑔 ∶ℝ^𝐷 → (0, 1) gRD(0,1)来预测类别标签的后验概率𝑝(𝑦 = 1|𝒙).
𝑝 ( 𝑦 = 1 ∣ 𝒙 ) = 𝑔 ( 𝑓 ( 𝒙 ; 𝒘 ) ) 𝑝(𝑦 = 1|𝒙) = 𝑔(𝑓(𝒙; 𝒘)) p(y=1x)=g(f(x;w))
其中𝑔(⋅) 通常称为激活函数(Activation Function),其作用是把线性函数的值域从实数区间“挤压”到了(0, 1) 之间,可以用来表示概率.

Logistic 回归中,我们使用Logistic 函数来作为激活函数.标签𝑦 = 1 的后验概率为
𝑝(𝑦 = 1|𝒙)=𝜎(𝒘T𝒙) ≜ 1 1 + e x p ( − 𝒘 T 𝒙 ) \frac{1}{1 + exp(−𝒘^T𝒙)} 1+exp(wTx)1
为简单起见,这里 𝒙 = [ 𝑥 1 , ⋯ , 𝑥 𝐷 , 1 ] T 𝒙 = [𝑥_1, ⋯ , 𝑥_𝐷, 1]^T x=[x1,,xD,1]T 𝒘 = [ 𝑤 1 , ⋯ , 𝑤 𝐷 , 𝑏 ] T 𝒘 = [𝑤_1, ⋯ , 𝑤_𝐷, 𝑏]^T w=[w1,,wD,b]T分别为𝐷 + 1 维的增广特征向量和增广权重向量.

在这里插入图片描述
在这里插入图片描述

LR和线性回归的区别
  • 逻辑回归=线性回归+sigmoid函数
  • 线性回归是用一条直线来拟合自变量和因变量之间的关系(做预测)
  • 逻辑回归是来解决二分类问题的(做分类)
逻辑回归怎么实现多分类?
One-Vs-All
  • 思想:把一个多分类问题变成多个二分类问题
  • 思路:选择其中一个类别为正类(Positive),使其他所有类别为负类(Negative)。然后一个接一个
  • 缺点:训练集样本数量不平衡
One-Vs-One
  • 思想:One-Vs-One 是一种相对稳健的扩展方法。对于同样的三分类问题,我们像举行车轮作战一样让不同类别的数据两两组合训练分类器,可以得到 3 个二元分类器。
  • 缺点:训练出更多的 Classifier,会影响预测时间。
Softmax
  • 逻辑回归使用sigmoid激活函数,映射到【0,1】之间的数值上
  • 使用Softmax让一个样本映射到多个【0,1】之间的数值上
  • Softmax使得所有概率之和为1,对概率分布归一化
优缺点

优点:

对数据中小噪声的鲁棒性好;
LR 算法已被广泛应用于工业问题中;
多重共线性并不是问题,它可结合正则化来解决。

LR算法的缺点:

对于非线性特征,需要转换
当特征空间很大时,LR的性能并不是太好
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值