《机器学习中的数学》——逻辑(斯特)回归

摘要

逻辑斯特回归同样属于监督学习,说到回归一般指的是对连续值的预测,这里的逻辑斯特回归用来解决分类问题,此篇博客主要以二分类为例子分析。
例子如下:
横坐标表示肿瘤大小,纵坐标表示是否为恶性肿瘤。
在这里插入图片描述
可以看到线性回归得到的一条直线中加上一个阈值(大于某一值取正样本,反之取负样本)可以对这8个样本点有一个比较明确的分类,如下如图:在这里插入图片描述
但是这个方法对噪声点很敏感,如果我们增加三个样本点,得到一个新的拟合直线:
在这里插入图片描述
再用刚才的阈值来划分时发现,新添加的样本被判断错了,鲁棒性不够,由此可见在线性回归中很难找一个绝对的值来严格划分样本结果,此时使用逻辑斯特回归来解决。

问题分析

逻辑斯特回归利用一个相对的值(线性回归不能绝对的确定结果)——概率,来对每一个样本点预测,它的输出被映射到 [ 0 , 1 ] [0,1] [0,1]上,是一个连续值。此映射归功于sigmoid函数:
y = 1 1 + e − x y=\frac{1}{1+e^{-x}} y=1+ex1
在这里插入图片描述
逻辑斯特的做法是:将线性回归的结果映射到sigmoid函数可以得到每一个样本点的概率值。但是需要一组好的参数来将样本分开,这里的参数就是判定边界的参数。
接下来讨论一个概念——判定边界,就是在样本集中分类的边界。
在这里插入图片描述如图线性回归中,判定边界为一条直线,我们假设为 y = − 3 + x 1 + x 2 y=-3+x_1+x_2 y=3+x1+x2,当 y = 0 y=0 y=0时,直线将样本划分为两类:
在这里插入图片描述
其中: h θ ( x ) = g ( θ 0 + θ 1 x 1 + θ 2 x 2 ) h_\theta(x)=g(\theta_0+\theta_1x_1+\theta_2x_2) hθ(x)=g(θ0+θ1x1+θ2x2)
表示将线性回归的结果映射到sigmoid函数, h θ ( x ) h_\theta(x) hθ(x)输出一个 [ 0 , 1 ] [0,1] [0,1]的概率值, y = 0 y=0 y=0为此时的判定边界,在直线上方是正样本,下方为负样本,假设的参数 θ \theta θ是要学习的。
在这里插入图片描述
同理当我们造出高次项的特征时,非线性的判定边界也可以是曲线。当 y = 0 y=0 y=0时为圆的边, y > 0 y>0 y>0为圆的外面, y < 0 y<0 y<0为圆的里面,这样可以很好的分类样本集。
逻辑斯特回归的损失函数
线性回归中利用方差的方法不适合,因为逻辑回归的是分类问题,所求得结果是概率,在 [ 0 , 1 ] [0,1] [01]之间 导致 h θ ( x ) h_\theta(x) hθ(x)是一个不光滑的曲线(非凸函数,有局部最小点,梯度下降法不能用),此时使用互熵损失
C o s t ( h θ ( x ) , y ) = { − l o g ( h θ ( x ) ) i f : y = 1 − l o g ( 1 − h θ ( x ) ) i f : y = 0 Cost(h_\theta(x),y)=\left\{ \begin{array}{rcl} -log(h_\theta(x)) &if: &y=1\\ -log(1-h_\theta(x)) &if: &y=0\\ \end{array} \right. Cost(hθ(x),y)={log(hθ(x))log(1hθ(x))if:if:y=1y=0
y = 1 y=1 y=1结果是正样本时, x x x越接近1, C o s t Cost Cost函数越小,损失越小:在这里插入图片描述
y = 0 y=0 y=0结果是正样本时, x x x越接近0, C o s t Cost Cost函数越小,损失越小:
在这里插入图片描述
可得出逻辑斯特回归的损失函数
J ( θ ) = 1 m ∑ i = 1 m C o s t ( h θ ( x ( i ) ) , y ( i ) ) = − 1 m ∑ i = 1 m [ ( y i l o g h θ ( x ( i ) ) + ( 1 − y i ) l o g ( 1 − h θ ( x ( i ) ) ) ] J(\theta)=\frac{1}{m}\sum_{i=1}^mCost(h_\theta(x^{(i)}),y^{(i)})\\ =-\frac{1}{m}\sum_{i=1}^m[(y^{i}logh_\theta(x^{(i)})+(1-y^{i})log (1-h_\theta(x^{(i)}))] J(θ)=m1i=1mCost(hθ(x(i)),y(i))=m1i=1m[(yiloghθ(x(i))+(1yi)log(1hθ(x(i)))]
别忘了L2正则化
J ( θ ) = − 1 m ∑ i = 1 m [ ( y i l o g h θ ( x ( i ) ) + ( 1 − y i ) l o g ( 1 − h θ ( x ( i ) ) ) ] + λ 2 m ∑ i = 1 m θ i 2 J(\theta) =-\frac{1}{m}\sum_{i=1}^m[(y^{i}logh_\theta(x^{(i)})+(1-y^{i})log (1-h_\theta(x^{(i)}))]+\frac{\lambda}{2m}\sum_{i=1}^m\theta_i^2 J(θ)=m1i=1m[(yiloghθ(x(i))+(1yi)log(1hθ(x(i)))]+2mλi=1mθi2
接下来是梯度下降( J θ ( x ) J_\theta(x) Jθ(x)是一个凸函数,只存在一个最优解)法寻找最优解:
θ i = θ i − α ∂ ∂ θ i J ( θ ) \theta_i=\theta_i-\alpha\frac{\partial}{\partial \theta_i}J(\theta) θi=θiαθiJ(θ)
多分类问题是可以构建多个分类器,例如:对A和{B,C}分类构建分类器,然后再对B,C构建分类器。

总结与链接

LR(逻辑斯特回归)使用注意:
1.样本量太大时可以:

  • 离散化后用one-hot编码处理;
  • 连续值注意要用scaling(标准化)
    2.样本平衡
  • LR对样本敏感,注意噪声样本
  • 做上采样(样本多,可以对不均衡样本采样,正多采正)和下采样(图像中对样本丰富,镜像,反转…)
  • 改lose function(对不均衡样本权重调节)
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值