卷积神经网络中全连接层、softmax与softmax loss理解

一般一个CNN网络主要包含卷积层,池化层,全连接层,损失层等。
卷积层与池化层在本篇中不做多理解,之后有时间再记录一下,本篇着重讲一下全连接层与损失层。
——————————————————————————————————————
全连接层:全连接层
W为全连接层的参数,X是全连接层的输入,也就是特征,经上层卷积或者池化层输出。
从图中可以看出X是NX1的向量,这是怎么得到的呢?
这个输入X就是由全连接层前面多个卷积层和池化层处理后得到的,假设全连接层前面连接的是一个卷积层,这个卷积层的num output是100,就是卷积之后输出一百张不同的特征图。每个特征的大小是4X4,那么在将这些特征输入给全连接层之前会将这些特征flat成NX1的向量,例如此时就应该是N=1600(4X4X100 )。
再来看W,W是全连接层的参数,是个TXN的矩阵,这个N和X的N对应,T表示类别数,比如你是7分类,那么T就是7。我们所说的训练一个网络,对于全连接层而言就是寻找最合适的W矩阵。
——————————————————————————————————————
Softmax层:
因此全连接层就是执行WXX得到一个TX1的向量(也就是图中的logits[TX1]),这个向量里面的每个数都没有大小限制的,也就是从负无穷大到正无穷大。然后如果你是多分类问题,一般会在全连接层后面接一个softmax层,这个softmax的输入是TX1的向量,输出也是TX1的向量(也就是图中的prob[TX1],这个向量的每个值表示这个样本属于每个类的概率),只不过输出的向量的T个值的大小范围为0到1,分别表示各个类别的概率。
softmax的表达式如下所示,
在这里插入图片描述
在经过softmax层输出后,得到一个TX1的向量,其中每一个值表示输入对应所有样本的概率值。
举个例子:
假设你的WX=[1,2,3],那么经过softmax层后就会得到[0.09,0.24,0.67],这三个数字表示这个样本属于第1,2,3类的概率分别是0.09,0.24,0.67。
——————————————————————————————————————
Softmax loss公式如下,
在这里插入图片描述
这边别的都好理解,只有y有点问题。
y是一个1XT的向量,里面的T个值,而且只有1个值是1,其他T-1个值都是0。那么哪个位置的值是1呢?答案是真实标签对应的位置的那个值是1,其他都是0。
举个例子:
假设一个5分类问题,然后一个样本I的标签y=[0,0,0,1,0],也就是说样本I的真实标签是4,假设模型预测的结果概率(softmax的输出)p=[0.1,0.15,0.05,0.6,0.1],可以看出这个预测是对的,那么对应的损失L=-log(0.6),也就是当这个样本经过这样的网络参数产生这样的预测p时,它的损失是-log(0.6)。那么假设p=[0.15,0.2,0.4,0.1,0.15],这个预测结果就很离谱了,因为真实标签是4,而你觉得这个样本是4的概率只有0.1(远不如其他概率高,如果是在测试阶段,那么模型就会预测该样本属于类别3),对应损失L=-log(0.1)。那么假设p=[0.05,0.15,0.4,0.3,0.1],这个预测结果虽然也错了,但是没有前面那个那么离谱,对应的损失L=-log(0.3)。我们知道log函数在输入小于1的时候是个负数,而且log函数是递增函数,所以-log(0.6) < -log(0.3) < -log(0.1)。简单讲就是你预测错比预测对的损失要大,预测错得离谱比预测错得轻微的损失要大。

参考博文:
https://blog.csdn.net/u014380165/article/details/77284921

  • 31
    点赞
  • 78
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
全连接层Softmax深度学习常用的两种技术。 全连接层(fully connected layer)是神经网络的一种基本层类型。它的作用是将前一层的所有神经元与当前层的所有神经元相连。在全连接层,每个神经元都与前一层的每个神经元有权重连接,并通过激活函数来计算输出。全连接层可以帮助神经网络学习到输入数据的复杂模式和特征。 而Softmax是一种用于多类别分类问题的激活函数。它可以将神经网络输出的得分值转化为概率值,表示每个类别的概率。Softmax函数的公式将每个得分值进行指数运算,并将指数运算的结果除以所有分类的指数运算结果的总和。这样可以确保所有分类的概率加在一起等于1,即100%。Softmax函数的输出可以用于判断输入数据属于每个类别的概率。 全连接层Softmax函数通常一起使用,特别是在深度学习的分类任务全连接层负责将输入数据映射到具有更高维度的特征空间,而Softmax函数则将这些特征转化为概率,从而实现分类任务。通过使用全连接层Softmax函数,神经网络可以学习到更复杂的模式和特征,并且输出结果更具有解释性。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [resnet(4)------全连接层softmax](https://blog.csdn.net/skyllerone/article/details/128266409)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值