softmax的思想是为神经网络定义新类型的输出层。它开始的方式和sigmoid层(符号层?)一样,通过形成加权来输入:
但是我们不使用sigmoid函数来获得输出,而是在softmax层将softmax函数应用到
根据这个函数,第j个输出神经元的激活(activation)就为(记为式子1):
‘
在分母中,我们对所有输出神经元求和。
假定我们有一个具有4个神经元的神经网络,分别表示为
如图:
关于softmax回归
最新推荐文章于 2024-07-24 17:01:51 发布
softmax回归是神经网络中的一种输出层,通过softmax函数将加权输入转化为概率分布。与sigmoid层不同,softmax层确保所有输出的和为1,因此可以解释为概率。在分类任务如MNIST中,softmax层的输出可以直观地解释为每个类别的概率。
摘要由CSDN通过智能技术生成