深度学习与计算机视觉[CS231N] 学习笔记(3.2):Softmax Classifier(Loss Function)

在数学,尤其是概率论和相关领域中,Softmax函数,或称归一化指数函数,是逻辑函数的一种推广。它能将一个含任意实数的K维的向量 z “压缩”到另一个K维实向量α(z)中,使得每一个元素的范围都在(0,1)}之间,并且所有元素的和为1。看到这里,我们就会自然的将Softmax函数与概率分布函数联系到一起,实际上,我们也正是这么做的。如下图所示,我们将原先的分类器对每一类别的预测分值进行Softmax函数转换,最终所有的值都被压缩到(0,1)范围内,并且所有值之和等于1。这样一来,我们可以认为当前每一类别的分值(压缩后),实际上在给定输入图像 xi 的前提下,正确标签是 k 的概率,这里k是属于Y空间内的任何一个标签值。Softmax函数的形式化定义如下图所示:
这里写图片描述
如果想要将Softmax函数转化成对应的损失函数,只需要对原函数取log再加负号即可。这里取log是为了方便计算,而加负号是因为当预测结果正确的概率越大时,相应的损失就应该越小。因此,我们就得到了上图中最下方的损失函数。
现在我们对“猫”这幅图片进行损失函数的计算,计算过程如下图所示:

这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值