神经网络隐藏层激活函数和输出层softmax/hardmax函数理解

1:激活函数

- 激活函数是神经网络中对输入数据转换的方法,通过激活函数后将输入值转化为其他信息;在神经网络的隐藏层中,激活函数负责将进入神经元的信息汇总转换为新的输出信号,传递给下一个神经元;
如果不使用激活函数,每个输入节点的输入都是一样的,成为了原始的感知机,没有信号的转换,使得网络的逼近能力有限,无法充分发挥网络的强大学习能力;
常见的激活函数:(sigmoid、tanh、Relu)
1:Sigmoid函数:
常用的转化线性信号为非线性信号的激活函数,数学表达形式如下:
主要特点:
1:将输入的连续值转化到0和1之间的输出;
2:深度学习的反向传递中可能导致梯度爆炸和梯度消失的情况,梯度消失发生的概率比较大;如果初始化神经网络的权重为高斯分布的随机值(均值为0方差为1),通过反向传播算法的数学推导可知,每一层梯度值会逐层下降0.25,如果神经网络层特别多,可能使得在穿过多层之后,梯度非常小,可能接近于0,即出现梯度消失的现象;
3:由于sigmoid函数的函数值是正数,那么每一层的输入为上一层的非0均值信号,模型收敛可能不理想;
4:幂运算的求解耗时,增加训练时间

在这里插入图片描述
在这里插入图片描述
2:tanh函数:
在这里插入图片描述
在这里插入图片描述
tanh函数解决了sigmoid函数全是正数的输出问题,模型的优化速度快,但是梯度消失的问题和幂函数运算复杂的问题没有解决;
3:Relu函数(线性修正单元)
在这里插入图片描述
在这里插入图片描述

取最大值函数,具有的优点:在正数区间解决了梯度下降的问题,计算速度非常快,收敛速度快;
存在问题:部分神经元可能不会激活,参数无法更新。
要注意:初始参数的设置-采用xavier初始化方法,避免将learning rate设置太大,或者自动调节学习率
4:PReLU(Leaky ReLu)
在这里插入图片描述
在这里插入图片描述
5:ELU(Exponential Linear Units)函数
在这里插入图片描述
在这里插入图片描述
ELU解决了Relu的问题,不会有梯度消失的问题,不会出现神经元无法激活的问题,但是计算量会稍微有点大;
6:MaxOut函数
maxout是深度学习中的一层网络,就像池化层和卷积层一样,我们可以把maxout函数看做是网络的激活函数层,每个神经元的计算公式如下:在激活函数层中训练参数,将最大值传下去。
在这里插入图片描述

激活函数的使用
1:选用激活函数的时候不要带有偏置信息,最好不要使用sigmoid,可以尝试tanh,但是效果不如relu和maxout函数,但是计算量同样大

2:输出层函数

输出层神经元,通过将输出值经过输出层函数转化为针对某一分类的置信概率值,在多分类问题中常见(softmax)
softmax函数
hardmax是找到数组中所有元素的最大的元素;softmax含义在于不再唯一的确定某一个最大值,而是输出每个分类结果的概率值,表示这个类别的可能性;将多分类信息,转化为范围在[0,1]之间和为1的概率分布;
在这里插入图片描述
当使用softmax函数作为输出节点的激活函数的时候,一般使用交叉熵作为损失函数;但是softmax因为e的问题,很容易出现数值溢出的现象;
计算损失函数的时候采用交叉熵计算softmax函数的损失函数(每个位置出现的概率的交叉熵损失函数);
交叉熵:
在这里插入图片描述

  • 0
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
激活函数一般放在隐藏神经网络输出中。如果不使用激活函数,每一输出都是上一输入的线性函数,这将导致神经网络只能表示线性关系,无法处理非线性问题。而激活函数的引入可以引入非线性因素,使得神经网络可以逼近任何非线性函数,从而提高神经网络的表达能力。在隐藏中使用激活函数可以引入非线性变换,增加网络的复杂度和表达能力,使得神经网络可以更好地拟合复杂的数据。在输出中使用激活函数可以根据具体的任务需求,如分类问题中使用softmax函数进行多类别分类,回归问题中使用线性函数或平方损失函数进行回归预测。常用的激活函数包括ReLU函数、sigmoid函数和tanh函数。\[1\]\[2\]\[3\] #### 引用[.reference_title] - *1* *2* [神经网络隐藏为什么需要使用激活函数?](https://blog.csdn.net/TimVan1596/article/details/120875280)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [【从零开始学习深度学习】9.多感知机MLP及常用激活函数介绍](https://blog.csdn.net/qq_42589613/article/details/128186429)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值