ReLU、LReLU、PReLU、CReLU、ELU、SELU

ReLU

这里写图片描述
tensorflow中:tf.nn.relu(features, name=None)

LReLU

(Leaky-ReLU)
这里写图片描述
其中 ai 是固定的。 i 表示不同的通道对应不同的ai.
tensorflow中:tf.nn.leaky_relu(features, alpha=0.2, name=None)

PReLU

这里写图片描述
其中 ai 是可以学习的的。如果 ai=0 ,那么 PReLU 退化为ReLU;如果 ai 是一个很小的固定值(如 ai=0.01 ),则 PReLU 退化为 Leaky ReLU(LReLU)。
PReLU 只增加了极少量的参数,也就意味着网络的计算量以及过拟合的危险性都只增加了一点点。特别的,当不同 channels 使用相同的 ai 时,参数就更少了。BP 更新 ai 时,采用的是带动量的更新方式(momentum)。
tensorflow中:没找到啊!

CReLU

(Concatenated Rectified Linear Units)
dd
tensorflow中:tf.nn.crelu(features, name=None)

ELU

这里写图片描述
这里写图片描述
其中α是一个可调整的参数,它控制着ELU负值部分在何时饱和。
右侧线性部分使得ELU能够缓解梯度消失,而左侧软饱能够让ELU对输入变化或噪声更鲁棒。ELU的输出均值接近于零,所以收敛速度更快
tensorflow中:tf.nn.elu(features, name=None)

SELU

这里写图片描述
经过该激活函数后使得样本分布自动归一化到0均值和单位方差(自归一化,保证训练过程中梯度不会爆炸或消失,效果比Batch Normalization 要好)
其实就是ELU乘了个lambda,关键在于这个lambda是大于1的。以前relu,prelu,elu这些激活函数,都是在负半轴坡度平缓,这样在activation的方差过大的时候可以让它减小,防止了梯度爆炸,但是正半轴坡度简单的设成了1。而selu的正半轴大于1,在方差过小的的时候可以让它增大,同时防止了梯度消失。这样激活函数就有一个不动点,网络深了以后每一层的输出都是均值为0方差为1。

tensorflow中:tf.nn.selu(features, name=None)

这里写图片描述

  • 37
    点赞
  • 200
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
CSDN IT狂飙上传的代码均可运行,功能ok的情况下才上传的,直接替换数据即可使用,小白也能轻松上手 【资源说明】 基于MATLAB实现的有限差分法实验报告用MATLAB中的有限差分法计算槽内电位;对比解析法和数值法的异同点;选取一点,绘制收敛曲线;总的三维电位图+使用说明文档 1、代码压缩包内容 主函数:main.m; 调用函数:其他m文件;无需运行 运行结果效果图; 2、代码运行版本 Matlab 2020b;若运行有误,根据提示GPT修改;若不会,私信博主(问题描述要详细); 3、运行操作步骤 步骤一:将所有文件放到Matlab的当前文件夹中; 步骤二:双击打开main.m文件; 步骤三:点击运行,等程序运行完得到结果; 4、仿真咨询 如需其他服务,可后台私信博主; 4.1 期刊或参考文献复现 4.2 Matlab程序定制 4.3 科研合作 功率谱估计: 故障诊断分析: 雷达通信:雷达LFM、MIMO、成像、定位、干扰、检测、信号分析、脉冲压缩 滤波估计:SOC估计 目标定位:WSN定位、滤波跟踪、目标定位 生物电信号:肌电信号EMG、脑电信号EEG、心电信号ECG 通信系统:DOA估计、编码译码、变分模态分解、管道泄漏、滤波器、数字信号处理+传输+分析+去噪、数字信号调制、误码率、信号估计、DTMF、信号检测识别融合、LEACH协议、信号检测、水声通信 5、欢迎下载,沟通交流,互相学习,共同进步!
Leaky ReLU是一种常用的激活函数,它的定义如下:在输入小于0时,输出为输入乘以一个小于1的斜率值a,而在输入大于等于0时,输出与输入相等。与其他激活函数不同的是,Leaky ReLU的斜率a是一个固定的值。 Leaky ReLU可以通过torch.nn.LeakyReLU()函数来实现,其中negative_slope参数指定了斜率的值,默认为0.01。如果将inplace参数设置为True,函数将会对输入进行原地操作,否则会返回一个新的输出张量。 Leaky ReLU是深度学习中常用的激活函数之一,它可以帮助增加网络的非线性性,并且在处理负数输入时避免了ReLU的神经元死亡问题。通过引入一个小的斜率,Leaky ReLU允许负数的通过,从而提供了更好的激活范围。 总结起来,Leaky ReLU是一种常用的激活函数,它可以通过torch.nn.LeakyReLU()函数来实现,具有增加非线性性和避免神经元死亡问题的优点。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [22个激活函数,ReLU、RReLU、LeakyReLU、PReLU、Sofplus、ELU、CELUSELU、GELU、ReLU6、Sigmoid、Tanh、...](https://blog.csdn.net/toto1297488504/article/details/113791252)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [pytorch之---relu,prelu,leakyrelu](https://blog.csdn.net/zxyhhjs2017/article/details/88311707)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值