吴恩达2022机器学习专项课程C2W2:实验SoftMax

Softmax函数

1.简述

在 Softmax 回归和带有 Softmax 输出的神经网络中,模型生成 N 个输出并从中选择一个作为预测类别。模型通过线性函数生成一个向量 z,然后应用 Softmax 函数将其转化为概率分布。Softmax函数使所有输出值在 0 和 1 之间且总和为 1,从而可以解释为概率。较大的输入值z会对应较大的输出概率。
在这里插入图片描述

2.Numpy实现softmax函数

先把输入向量的每个元素转换成指数e,这是第一步。然后每个指数都要除以指数之和。
在这里插入图片描述
代码实现的是这个过程,向量z包含一层的所有输出,每个输出,都经过softmax函数计算,得到激活向量。在这里插入图片描述
可通过调整每个z值,来观察softmax函数的输出。结果表明,softmax函数的整体输出和为1,Softmax的输出是一组概率分布,每个值都在0到1之间,且总和为 1。一个z值的改变会影响所有的激活值a,而ReLU 或 Sigmoid 等其他激活函数不同,这些函数是单输入单输出的,一个输入只影响一个输出。
在这里插入图片描述

softmax成本函数

softmax的损失函数,y是目标类别,a是softmax函数的输出,注意:损失函数衡量的是一个样本。
在这里插入图片描述
为了编写成本方程,我们需要一个“指示函数”,当第 i 个样本的真实标签为 j 时为 1,否则为 0。
在这里插入图片描述
成本函数计算过程,𝑚是训练样本的数量,𝑁是类别的数量,例如真实标签y有0,1,2,3,则N=4。然后开始计算每个训练样本的损失,N求和公式的内容为:例如第一个训练样本的真实标签y=1,则计算真实标签y=1对应的训练样本的softmax函数值,其它标签不参与计算。第二个训练样本的真实标签y=3,则计算真实标签y=5对应的训练样本的softmax函数值,其它标签不参与计算。这样我们能精准计算每个训练样本的损失,然后累计总和除以平均值,即为成本函数的值。

在这里插入图片描述

softmax应用于神经网络

1.自定义数据集

Tensorflow 中实现 softmax、cross-entropy loss 的两种方法,首先创建数据集,输入样本2个特征,真实标签y也就是分类一共4个0,1,2,3,2000个训练样本。
在这里插入图片描述

2.构建模型

构建模型,模型最终输出一个概率向量。在这里插入图片描述
编译模型的损失函数SparseCategoricalCrossentropy就是这个。
在这里插入图片描述

3.使用模型预测

用训练好的模型预测,第一个输出是个二维数组,它表示预测结果前两行,也就是模型预测第一个和第二个训练样本的分类属于0,1,2,3的概率。第二个输出是预测结果中的最大概率和最小概率。

在这里插入图片描述

4.改良模型代码(softmax转换输出)

输出层设置为线性激活,损失函数有一个额外的参数: from_logits = True 。表示损失函数应在损失计算中包含softmax 操作。这样可以实现计算优化,减小误差。
在这里插入图片描述
输出的内容是离散型数据,有负数正数,它不是概率,而是logits(z),后续还需要拿z进行softmax计算。
在这里插入图片描述
softmax处理,第一行 [2.08e-03, 3.14e-03, 9.61e-01, 3.34e-02] 表示第一个训练样本在各个分类上的概率。第二行 [9.92e-01, 7.37e-03, 1.74e-04, 1.94e-06] 表示第二个训练样本在各个分类上的概率。
在这里插入图片描述

这段代码打印前5个训练样本的分类概率向量。category 输出的是具有最高概率的分类索引。
例如,如果第一个输出中索引2的元素最大,即该元素在概率向量中最大,表示该样本最有可能属于分类2。每个训练样本的概率之和都为1。在这里插入图片描述

  • 29
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值