多分类问题的softmax函数交叉熵损失函数推导

二分类与多分类

多分类问题的交叉熵损失函数推导与二分类交叉熵损失函数推导的思想是一致的。可以先参考 二分类问题的交叉熵损失函数推导可参考 二分类问题的交叉熵损失函数推导

本文参考deeplearning 一书   6.2.2.3 Softmax Units for Multinoulli Output Distributions

好啦,开始步入正题啦~

首先要明确一点的是,为多分类问题和二分类问题设计的模型 在 最后一层直接输出的东西那里有比较大的不同。

假设模型的输出层是全连接层,我们可以画出二分类问题和多分类问题经过最后一层直接输出的内容是什么,如下图:(图中的多分类是三分类问题)

图中一个蓝色的圆圈代表一个实数值。对于二分类来讲,只需要输出一个实数值,再经过sigmoid函数转化之后就可表示模型预测为 1 的概率。

对于N分类问题,需要N个输出值,第N个输出值经过softmax转化之后可表示模型预测为 第N类 的概率。

经softmax函数转化之后可表示概率

下面推导为什么经softmax函数转化之后可以表示概率,现在开始推导啦~

第一步: 假设输出的那三(拓展到N)个蓝色圆圈组成一个向量 z的表达式可以写为 \mathbf{z}=\mathbf{W}^{T}\mathbf{h}+\mathbf{b}。其中z是一个向量。

第二步:构造\tilde{P}(y),(注意此时的\tilde{P}(y)还不是一个真实的概率分布)。使得z_{i}=\log \tilde{P}(y=i|\mathbf{x}),也就是\tilde{P}(y=i|\mathbf{x})=\exp (z_{i})

为什么要\tilde{P}(y=i|\mathbf{x})=\exp (z_{i})  ?用 \tilde{P}(y=i|\mathbf{x})=z_{i}不行嘛?之所以用 \exp (z_{i}) 是因为求交叉熵损失函数的时候,要放到 \log 里边 ,这样在用梯度求解的时候不容易 saturate (原文是这个单词,我现在还不知道翻译成什么比较好。)这是梯度求解时候的问题,现在可不用理解。

第三步:获得概率分布。对 进行指数化exponentiate和归一化normalize。可以得到:

P(y=i|\mathbf{x})=\frac{exp(z_{i})}{\sum _{j}exp(z_{j})}

第四步:至此,由 转化成了   模型预测为各个 z_{i} 的概率,这个过程叫softmax函数,也就是我们熟悉的这个式子:

softmax(\mathbf{z})_{i}=\frac{exp(z_{i})}{\sum _{j}exp(z_{j})}

第五步:总结。对 进行exponentiate和normalize,就可以得到模型预测为各个 z_{i} 的概率。

经过softmax转化后,交叉熵损失函数推导

经过softmax转化之后,求交叉熵损失函数就比较容易啦。

交叉熵损失函数的公式是 -log(P(y))

(这里的 y 是这个样本的真实标签,假设有1,2,3类, 对应 z_{1}z_{2}z_{3} ,真实标签是 z_{2} 的话,P(y)  就是P(y=z_{2}^{}|\mathbf{x}))。 

将 softmax(\mathbf{z})_{i}=\frac{exp(z_{i})}{\sum _{j}exp(z_{j})}  代入公式 -log(P(y)) 里,可得交叉熵损失函数:

-\log softmax(\mathbf{z})_{i}=-(z_{i}-\log \sum _{j}exp(z_{j}))

如果实际的类别对应的是输出值z_{2},(假设只有1,2,3类,对应 z_{1}z_{2}z_{3})。那么损失函数就是-\log softmax(\mathbf{z})_{2}=-(z_{2}-\log \sum _{j}exp(z_{j}))

到此我们的推导就结束啦,有不正确的地方欢迎各位大佬留言~

  • 4
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
softmax函数推导如下所示: 假设有一个具有n个类别的分类任务,softmax函数可以将n个输入值转化为n个概率值,表示每个类别被选择的概率。 首先,我们定义softmax函数的输入为向量z = [z1, z2, ..., zn],其中zi表示第i个类别的输入值。 softmax函数的定义如下: ```python softmax(z) = [e^z1 / (e^z1 + e^z2 + ... + e^zn), e^z2 / (e^z1 + e^z2 + ... + e^zn), ..., e^zn / (e^z1 + e^z2 + ... + e^zn)] ``` 为了推导softmax函数的导数,我们首先计算softmax函数的输出值。 softmax函数的输出值为: ```python softmax(z) = [p1, p2, ..., pn] ``` 其中pi表示第i个类别被选择的概率。 接下来,我们需要计算softmax函数对输入向量z的导数。 根据链式法则,softmax函数对输入向量z的导数可以表示为: ```python dsoftmax(z) / dz = [dp1 / dz1, dp2 / dz2, ..., dpn / dzn] ``` 我们可以通过对softmax函数的输出值pi求导来计算dsoftmax(z) / dz。 根据softmax函数的定义,我们可以将pi表示为: ```python pi = e^zi / (e^z1 + e^z2 + ... + e^zn) ``` 对pi求导,可以得到: ```python dpi / dzi = (e^zi * (e^z1 + e^z2 + ... + e^zn) - e^zi * e^zi) / (e^z1 + e^z2 + ... + e^zn)^2 = e^zi / (e^z1 + e^z2 + ... + e^zn) - (e^zi / (e^z1 + e^z2 + ... + e^zn))^2 = pi - pi^2 = pi * (1 - pi) ``` 因此,softmax函数对输入向量z的导数可以表示为: ```python dsoftmax(z) / dz = [p1 * (1 - p1), p2 * (1 - p2), ..., pn * (1 - pn)] ``` 这样,我们就推导出了softmax函数的导数。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值