logistic regression 和 softmax regression的损失函数

本文探讨了logistic regression在处理概率输出时为何不适合使用MSE损失函数,并介绍了如何通过交叉熵损失函数解决这一问题。同时,文章还涉及softmax回归,说明在实际应用中通常将softmax层与回归层结合,并采用log-likelihood作为损失函数。
摘要由CSDN通过智能技术生成

我们有logistic regression可以将实数域的输入映射为0到1的概率输出,能够有很好的意义。但是如果用平常的MSE(最小均方误差)就会有问题。我们来剖析这个问题:

logistic与MSE

这里写图片描述

现在有一个目标:输入0,输出1。
为了方便起见,我们现在只考虑有一个神经元

这里写图片描述

我们给定初始的权重w=0.6,b=0.9来看学习趋势,这里学习率 η=0.15,初始预测值为0.82
这里写图片描述

可以看到Cost一开始随着训练轮数的增加下降的还是蛮快的,之后平缓,符合人们的直觉。
我们再次改变权重令,w=2.0,b=2.0,初始预测值为0.98
这里写图片描述

可以看出一开始的Cost几乎是不下降的,也就是说学习得特别缓慢。为什么会出现这种情况呢,初始的权重不同为什么会导致学习速率的不同呢?我们来看logistic regression+MSE到底哪里有欠缺。

首先来看MSE的形式:

C(ω,b)=12nx||y(x)a||2

由于我们的简化,现在只有一个神经元则,变成:
C(ω,b)=12||ya||2

其中 a=σ(z),z=ωx+b
分别对 ω b 求偏导:
Cω=(yσ(z))σ(z)x

Cb
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值