六、改进神经网络的学习方法(2):Softmax输出层

本文深入探讨了神经网络中的Softmax输出层,包括其单调性、非局部性和数值稳定性。此外,介绍了log-likelihood代价函数,并讨论了Softmax与log-likelihodd在反向传播中的应用。最后,简要提及了Softmax与逻辑回归的关系。
摘要由CSDN通过智能技术生成

本博客主要内容为图书《神经网络与深度学习》和National Taiwan University (NTU)林轩田老师的《Machine Learning》的学习笔记,因此在全文中对它们多次引用。初出茅庐,学艺不精,有不足之处还望大家不吝赐教。

1. Softmax输出层

  定义一种新的输出层,对于输出层某一个神经元的权值输入为 zLj ,激活值输出为 aLj ,则Softmax输出层的定义如下

a_j^L=\frac{e^{z_j^L}}{\sum_k{e^{z_k^L}}}\tag{1}\label{1}

为了更好地理解⽅程, 假设我们有⼀个包含四个输出神经元的神经⽹络,对应四个带权输⼊为 zL1zL2zL3zL4 这里的条块显⽰带权输⼊的可取值和对应输出激活值的图形。当增大 zL4 的值的时候, aL4 的值也会对应增大,而其他三个神经元的输出值会对应减小; 当减小 zL4 的值的时候,
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值