深度学习之 softmax和交叉熵

本文深入探讨了深度学习中的softmax函数和交叉熵损失函数。通过28x28的手写数字识别例子,解释了softmax如何将神经网络的输出归一化为概率分布,以及交叉熵如何作为损失函数,衡量模型预测与真实标签之间的差异。优化过程中,交叉熵与softmax的结合简化了网络的训练过程。
摘要由CSDN通过智能技术生成


 记录 深度学习经典输出单元函数softmax和损失函数cross- entropy组合的推理过程

 以识别0~9的手写例子来尝试描述这个问题,假设输入数据集为28x28的手写数字(单通道)。

那么输入图片X为28x28 = 784 维的一个向量。并,简单起见使用单层网络W_i x + b。

 假设
在这里插入图片描述
 等式右边:
  输入图片X像素0~784 * Wij + bi
  其中Wij 是i数字对0j(0784)像素的权值
 等式左边:
  输出值,z_i对应数字i(i为0到9)的计算结果。

 假设一张“1”的手写图片计算结果z_1一个很高的值,其他z_i(0,2,…9)很小的值,完美,我们可以预测它为1。

实际上初始计算结果是完全随机的值,我们的目标就是优化这些权值,能够每张数字i的图片上输出值很大,

i以外的数字图片上输出值很小。(这里大和小只是一个概念,主要目的是计算结果要有差异,在对应数字的结果

表现和非对应数字结果表现有差异,这样我们好预测,当然这个差异越明显越好)

1 softmax函数


 Softmax归一化指数函数,主要是把上述输出结果概率化:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值