机器学习--逻辑回归与softmax

本文介绍了逻辑回归和Softmax回归的基础知识,逻辑回归主要用于二分类,通过Sigmoid函数实现;Softmax回归适用于多分类,是逻辑回归的扩展。文章深入探讨了对数几率、极大似然法以及Softmax损失函数,并提到了正则项在避免参数不唯一性中的作用。
摘要由CSDN通过智能技术生成

1. 简介

逻辑回归和Softmax回归是两个基础的分类模型,前者主要处理二分类问题,而后者处理多分类问题,但事实上Softmax回归就是逻辑回归的一般形式。

2.逻辑回归模型

 

 sigmoid

想了解Logistic回归,我们必须先看一看Sigmoid函数 ,我们也可以称它为Logistic函数。它的公式如下:

机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

整合成一个公式,就变成了如下公式:

机器学习实战教程(六):Logistic回归基础篇之梯度上升算法

下面这张图片,为我们展示了Sigmoid函数的样子。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值