torch.nn.RRELU
原型
CLASS torch.nn.RReLU(lower=0.125, upper=0.3333333333333333, inplace=False)
torch.nn.RReLU 是 PyTorch 中的一个激活函数,它代表了随机修正线性整流单元(Randomized Leaky Rectified Linear Unit)。RReLU 激活函数是基于 LeakyReLU 的一种变体,它在训练过程中引入了随机性。
参数
lower (float) – lower bound of the uniform distribution. Default: 1 / 8 1/81/8
upper (float) – upper bound of the uniform distribution. Default: 1 / 3 1/31/3
inplace (bool) – can optionally do the operation in-place. Default: False
点击添加图片描述(最多60个字)编辑
其中 a 是从 μ ( l o w e r , u p p e r ) \mu(lower, upper)μ(lower,upper) 随机均匀采样获得。
RReLU 激活函数在训练过程中引入了随机性,这有助于增加模型的鲁棒性和泛化能力。但需要注意,在测试阶段应该固定 RReLU 的随机参数,保持一致的结果。
Lnton 羚通是专注于音视频算法、算力、云平台的高科技人工智能企业。 公司基于视频分析技术、视频智能传输技术、远程监测技术以及智能语音融合技术等, 拥有多款可支持 ONVIF、RTSP、GB/T28181 等多协议、多路数的音视频智能分析服务器 / 云平台。