吴恩达机器学习笔记十三 多分类问题(multiclass) Softmax 神经网络的softmax输出 softmax改进

本文讲解了Softmax算法在多类分类任务中的应用,包括其在神经网络中的角色,以及如何通过稀疏交叉熵损失函数提高精度。还提到直接计算表达式的优点。
摘要由CSDN通过智能技术生成

多分类问题指可能会有多于两个的输出标签,而不只是0或1的问题。

Softmax算法是逻辑回归的一种推广。

例如 y 有四种可能的取值时:

成本函数

例如有十种类别的输出,此时称这个神经网络有一个softmax输出层或上层是softmax层

softmax layer有时也称softmax activition function.

代码实现上图所示的神经网络:

其中 SparseCategoricalCrossentopy 是 稀疏分类交叉熵损失函数。sparse(稀疏)指 y 的每个数字都是类别之一.下面的代码能用但不建议,有更好的。

softmax改进

计算2/10000,两种不同的方式得到的结果不同,第二种更准确。

如果在程序中指定表达式而不是使用中间变量的话,会更加精确。

  • 7
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值