机器学习基础知识(九):逻辑回归

本文介绍了逻辑回归的基本概念,它将回归转化为二分类问题,利用sigmoid函数得到概率值。逻辑回归通过优化对数似然损失来寻找最优参数,解决二分类任务,常用于广告点击率预测、邮件分类等场景。同时,文中提到了参数优化策略以及在Python中使用sklearn库实现逻辑回归的案例。
摘要由CSDN通过智能技术生成

一、基本概念

逻辑回归:将回归转化成为二分类,并能得出概率值
应用场景:广告点击率、是否为垃圾邮件、是否是金融诈骗

问题:如何将回归转换成为分类
解答:使用sigmoid 函数,将输入的数据转化成为一个[0,1]之间的数值,即概率值
sigmoid函数
具体体现在下图的逻辑回归公式图中。其中,z表示回归的结果,e=2.71,g(z)为sigmoid函数。
在这里插入图片描述
在这里插入图片描述
由此可知,逻辑回归和线性回归一样,都是输入数据,拟合参数。不同点在于逻辑回归用sigmoid函数将z值转化成了一个[0,1]之间的数值,默认阈值为0.5,由此变成了二分类问题。

二、参数优化

逻辑回归是线性回归,线性回归的存在最优参数,即使均方误差最小的参数。寻找最优参数的方法为,正式方程或网格搜索。而逻辑回归通过对数似然损失来找最优参数。
在这里插入图片描述

均方误差不存在多个局部最低点,全局只有一个最小值。而对数似然损失存在多个局部最低点。由于目前还是无法找到全局最低点,因此只能通过下列方法尽量解决:1.多次随机初始化,找出几个局部最低点并进行比较;2.求解过程中,调整学习率,使模型学习地慢一些。
尽管对数似然损失函数没有全局最低点,但效果还是不错的。

三、案例

API:sklearn.linear_model.LogisticRegression(penalty=‘l2’,C=1.0) #penalty指的是正则化,C使正则化力度
逻辑回归和岭回归一样,都可以L2正则化,即解决过拟合的问题。

正例:概率小的类别
反例:概率大的类别

在这里插入图片描述

from sklearn.linear_model import LogisticRegression
from sklearn
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值