2020-6-16 吴恩达-改善深层NN-w3 多种可能分类Multi class classification(3.9 训练一个 Softmax 分类器)

本文深入探讨了Softmax分类器的训练过程,包括Softmax层的作用、损失函数的选择以及如何在深度学习模型中应用Softmax进行多类别分类。通过对单个样本的分析,展示了损失函数如何促进模型优化目标类别的概率。此外,还提及了训练集总损失的计算方法以及在实际实现中如何利用反向传播进行梯度下降。
摘要由CSDN通过智能技术生成

1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c
2.详细笔记网站(中文):http://www.ai-start.com/dl2017/
3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai

3.9 训练一个 Softmax 分类器 Trying a softmax classifier

上一节中我们学习了Softmax层和Softmax激活函数。
本节中,我们将更深入地了解Softmax分类,并学习如何训练一个使用了Softmax层的模型。

上节课中已经了解,我们有四个分类 C = 4 C=4 C=4,输出层的 z [ L ] = [ 5 2 − 1 3 ] z^{[L]}=\begin{bmatrix} 5 \\ 2 \\ -1 \\ 3 \end{bmatrix} z[L]=5213,是4x1维向量。临时变量 t = [ e 5 e 2 e − 1 e 3 ] t=\begin{bmatrix} e^5 \\ e^2 \\ e^{-1} \\ e^3 \end{bmatrix} t=e5e2e1e3,对元素进行幂运算。最后,如果你的输出层的激活函数 g [ L ] ( z [ L ] ) g^{[L]}(z^{[L]}) g[L](z[L])是Softmax激活函数,那么输出 a [ L ] a^{[L]} a[L]就会是这样的:
在这里插入图片描述

简单来说就是将临时变量 t t t归一化,使总和为1。
你注意到向量 z [ L ] z^{[L]} z[L]中,最大的元素是5,而最大的概率也就是第一种概率0.842。

Softmax这个名称的来源是与所谓hardmax对比。

hardmax函数会观察 z [ L ] z^{[L]} z[L]的元素,在其中最大元素的位置放上1,其它位置放上0。
所以向量 z [ L ] z^{[L]} z[L]通过hardmax函数就变成向量 [ 1 0 0 0 ] \begin{bmatrix} 1 \\ 0 \\ 0 \\ 0 \end{bmatrix}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值