机器学习:逻辑回归(Logistic Regression)

定义:逻辑回归假设数据服从伯努利分布,通过极大化似然函数的方法,运用梯度下降来求解参数,来达到将数据二分类的目的。

输入:逻辑回归的输入是一个线性组合,与线性回归一样,但是输出变成了概率。通过伯努利(类似抛硬币的概率分布)的概率公式我们可以得到sigmoid函数。

逻辑回归的最终形式:

hθ(x;θ)=11+eθTx h θ ( x ; θ ) = 1 1 + e − θ T x

函数图像如下图,一般按0.5分类。

逻辑回归的损失函数是它的极大似然函数:

Lθ(x)=mi=1hθ(xi;θ)yi(1hθ(xi;θ))1yi L θ ( x ) = ∏ i = 1 m h θ ( x i ; θ ) y i ∗ ( 1 − h θ ( x i ; θ ) ) 1 − y i

这个极大似然函数无法直接求解,所以通过对它梯度下降来不断逼近最优解。

处理过拟合:取L1或L2正则化,通过对权重增加惩罚来防止过拟合。一般使用L2正则化,L1正则化是截断效应,L2正则化是缩放效应。

优点:
1)形式简单,可解释性好,可以从权重的大小看到不同的特征对最后结果的影响,从而可以筛选出前k个影响最大的特征;
2)模型效果不错,可以作为baseline,如果特征工程做得好,效果就不会太差;
3)训练速度快,计算量只和特征的数据相关,资源占用小,尤其是内存,因为只需要存储各个维度的特征值;
4)方便输出结果调整,对最后输出的概率分数进行阈值划分,样本结果大于某个阈值的是一类,小于某个阈值的是一类;

缺点:
1)准确率不是很高,因为形式非常的简单;
2)很难处理数据不平衡的情况(此处可以说一下有哪些方法处理不平衡);
3)处理非线性数据比较麻烦;

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值