PyTorch学习笔记之激活函数篇(五)

PReLU是一种改进的ReLU函数,具有较小的负值域斜率,避免DeadReLU问题,且α参数可训练。PyTorch中的torch.rrelu实现随机LeakyReLU,有助于模型正则化。
摘要由CSDN通过智能技术生成

5、PReLU函数

对应的论文链接:https://arxiv.org/abs/1502.01852v1

5.1 公式

PReLU函数的公式:
f ( x ) = { x , x > = 0 α x , x < 0 ( α 是可训练参数 ) f(x) = \begin{cases} x&,x>=0 \\ \alpha x&,x<0 (\alpha 是可训练参数) \end{cases} f(x)={xαx,x>=0,x<0(α是可训练参数)
PReLU函数的导函数:
f ′ ( x ) = { 1 , x > = 0 α , x < 0 ( α 是可训练参数 ) f'(x) = \begin{cases} 1&,x>=0 \\ \alpha &,x<0 (\alpha 是可训练参数) \end{cases} f(x)={1α,x>=0,x<0(α是可训练参数)

5.2 优点与不足

PReLU函数(ReLU的改进):
1、在负值域,PReLU的斜率较小,这也可以避免Dead ReLU问题。与ELU相比,PReLU在负值域是线性运算。尽管斜率很小,但不会趋于0。
2、公式与Leaky ReLu相似,但并不完全一样。𝛼可以是常数,或自适应调整的参数。也就是说,如果让a自适应,那么PReLu会在反向传播时更新参数a。
3、参数α通常为0到1之间的数字,并且通常相对较小。
(1)如果𝛼 = 0,则f(x)变为ReLU。
(2)如果𝛼 > 0,则f(x)变为leaky ReLU。
(3)如果𝛼是可学习的参数,则f(x)变为PReLU。

5.3 torch.rpelu

在 PyTorch 中,torch.rrelu 函数用于实现随机泄露修正线性单元(Randomized Leaky ReLU)激活函数。RReLU 是 Leaky ReLU 的一个变体,其中负输入值的斜率是在训练过程中随机采样的,并在每次前向传播时保持固定。这种随机性有助于模型的正则化,因为它在每次迭代时都会稍微改变激活函数的形状。

torch.rrelu 的基本使用如下:

import torch

# 创建一个张量
x = torch.tensor([-5.0, -3.0, 0.0, 2.0, 5.0])

# 应用 RReLU 函数
# 下面的例子中,我们假设负斜率的均值是 0.01,标准差是 0.02
y = torch.rrelu(x, lower=0.01, upper=0.02)

print(y)

在上面的例子中,lower 和 upper 参数定义了负斜率随机采样的范围。lower 是斜率的最小值,而 upper 是斜率的最大值。每次前向传播时,负斜率会在这个范围内随机选择一个值,并保持不变,直到下一次前向传播。

  • 7
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

熊猫Devin

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值