机器学习(八)

本文介绍了逻辑回归的基本概念,包括其与线性回归的关系,sigmoid函数的应用,以及损失函数的选择和优化方法。重点讲解了sklearn中的LogisticRegressionAPI,并讨论了逻辑回归在二分类问题中的优势和处理多分类问题的局限性。
摘要由CSDN通过智能技术生成

分类-逻辑回归

逻辑回归:线性回归的式子作为逻辑回归的输入

逻辑回归是解决二分类问题的利器

sigmoid函数

逻辑回归公式

e:2.71;Z=回归的结果

逻辑回归的损失函数、优化

与线性回归原理相同,但由于是分类问题,损失函数不一样,只能通过梯度下降求解

目标值是1类

目标值是0类(判断的是属于1的概率)

逻辑回归只判断一个数的概率是多少

损失函数

损失函数:均方误差(不存在多个局部最低点,只有一个最小值)、对数似然损失(有多个局部最小值,目前解决不了的问题)

解决办法:1.多次随机初始化,多次比较最小值结果

2.求解过程中,调整学习率

(尽量改善)

sklearn逻辑回归API

skelarn.linear_model.LogisticRegression

LogisticRegression

skelarn.linear_model.LogisticRegression(penalty='12',C=1.0)

Logistic回归分类器

coef_:回归系数

分类流程

1.网上获取数据(工具pandas)

2.数据缺失值处理、标准化

3.LogisticRegression估计器流程

逻辑回归总结

只能解决二分类问题

优点:适合需要得到一个分类概率的场景、简单、速度快

缺点:不好处理多分类问题

softmax方法-逻辑回归在多分类问题上的推广

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值