softmax回归与逻辑斯蒂回归

一般应用场景

logistic回归一般用于二分类问题,对于多分类问题可以使用ovr的方法建立多个分类器进行分类,对输出结果进行投票,投票所属最高的类作为当前样本的类,另一种方法则是使用softmax回归,对于多个类别的概率值直接建立模型进行推到,并且由于softmax的概率计算公式可以同时缩减w倍而不改变概率值,因而sigmoid函数可以认为是softmax应用于二分类时的一种特殊书写方式。

softmax公式及其损失函数

对于样本 xi 以及它对应的类别 yi ,可以认为 P(Y=j|Xi) 的计算公式为 P(Y=j|Xi)=exp(θjxi)nl=1exp(θlxi) ,对于所有样本损失函数的极大似然估计即为极大似然估计
而对应的逻辑斯蒂回归的损失函数可以写成
逻辑斯谛回归损失
可以看出,logistic损失和softmax损失在形式上十分相似。对于softmax的计算公式,可以看出当所有类的参数 θ 都减去一个值 ψ ,可以推导出公式推导
因而减去值 ψ 不影响概率公式的值,这表明softmax回归模型中存在冗余的参数。因而可以通过将 θ0 替换为全0向量,进而使得概率公式中的第一项值为1,若应用于二分类,则转变为sigmoid函数。

softmax的圈中更新

可以使用迭代的优化算法,例如梯度下降法对softmax回归的损失函数进行求解,经过求导后得到的梯度公式为
梯度公式
之后根据该梯度在负梯度方向进行更新。因为softmax中参数的冗余性,通常会添加一个权重衰减项来修改损失函数,使得损失函数求解时能得到唯一的最优解,将损失函数的公式修改为损失函数
对该公式求梯度并更新参数,则可以求得最优解。

softmax与logistic应用于多分类

softmax回归中,一般是假设多个类别是互斥的,样本在softmax中的概率公式中计算后得到的是样本属于各个类别的值,各个类别的概率之和一定为1,而采用logistic回归和ovr的思想进行多分类时,得到的是值是样本相对于其余类别而言属于该类别的概率,一个样本在多个分类器上计算后得到的结果不一定为1,因而当分类的目标类别是互斥时,常采用softmax回归进行预测,而目标类别不是互斥时,例如预测音乐是属于华语音乐、摇滚或者80年代音乐三个类别时,则采用逻辑斯蒂回归建立多个分类器。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值