机器学习-有监督学习-分类算法:逻辑回归/Logistic回归(二分类模型)【值域符合二项分布律 ==似然函数最大化==> 交叉熵/对数损失函数】、Softmax回归(多分类模型)【交叉熵损失函数】

本文详细介绍了逻辑回归和Softmax回归在分类问题中的应用,逻辑回归主要解决二分类问题,而Softmax回归则是其在多分类问题上的扩展。内容涵盖逻辑回归的概念、应用场景、与线性回归的区别、损失函数及其优化,以及为什么对特征进行离散化处理的原因。同时,文章还探讨了Softmax函数、多分类损失函数以及逻辑回归的局限性,并给出了实际案例。
摘要由CSDN通过智能技术生成

Logistic回归、Softmax回归都可以看做是输入层到输出层的直接的全连接神经网络,用的激活函数为Sigmode函数。

一、Logistic(逻辑)回归【LR模型】

逻辑回归:分类问题的首选算法,主要用于解决二分类问题

1、什么是逻辑回归

逻辑回归(Logistic Regression):是一种对数几率模型,虽然被称为回归,但其实际上是分类算法模型。从大的类别上来说,逻辑回归是一种有监督的统计学习方法,主要用于对样本进行分类。
线性回归模型中输出一般是连续的,例如 y = XΘ =

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值