常用激活函数activation function(Softmax、Sigmoid、Tanh、ReLU和Leaky ReLU) 附激活函数图像绘制python代码

激活函数是神经网络中的关键组成部分,引入非线性,帮助模型逼近复杂函数。本文对比了常见的激活函数,如Softmax适合多分类任务,Sigmoid在二分类和模型隐藏层应用,Tanh在回归任务和隐藏层,ReLU用于卷积网络,而Leaky ReLU解决了ReLU的硬饱和问题。同时,每个函数都有其优缺点,如梯度消失和神经元死亡等挑战。最后提供了激活函数图像的Python绘制代码。
摘要由CSDN通过智能技术生成

激活函数是确定神经网络输出的数学方程式。

激活函数的作用:给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数。

1、附加到网络中的每个神经元,并根据每个神经元的输入来确定是否应激活。

2、有助于将每个神经元的输出标准化到1到0或-1到1的范围内。

常用非线性激活函数对比

激活函数

公式

函数图像

适合场景

Softmax

Softmax({?{z}_{i}})=rac{exp({?{z}_{i}})}{sum
olimits_{j}{exp({?{z}_{j}})}}

多分类任务输出层

Sigmoid

f(z)=rac{1}{(1+{?{e}^{-z}})}

二分类任务输出层,模型隐藏层

Tanh

tanh(x)=rac{1-{?{e}{-2x}}}{1+{?{e}{-2x}}}=rac{2}{1+{?{e}^{-2x}}}-1

ReLU

ReLU(x)=max(0,x)

回归任务,卷积神经网络隐藏层

Leaky ReLU

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值