机器学习2基础回归模型之逻辑回归和Softmax回归

逻辑回归和Softmax回归虽然名字里带回归,但是常用来解决分类问题
我们通过比较这两个回归和线性回归来认识他们,他们也常被接在神经网络的最后一层。
(1)模型表达式:
这里写图片描述
上面g函数的名字为sigmoid函数,其特点是值位于0到1.其作用是把X映射到01之间
(2)分布假设:
线性分布假设样本服从正态分布
逻辑回归假设样本服从伯努利分布
softmax回归假设样本服从多项式分布
(3)损失函数:
这里写图片描述

首先说一下逻辑回归和softmax回归损失函数这么写的原因
最小化对数损失基本等价于最大化分类器的准确度
这里写图片描述
下面介绍稍微复杂一些的softmax回归里面损失函数对θ的导数
这里写图片描述
指示函数I在python中可以用int(y==q)来表示,true=1,false=0
同理,Logistic Regression的损失函数对θ的导数为
这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值