RMAF激活函数

RMAF激活函数

论文:RMAF:ReLU-Memristor-Like Activation Function for Deep Learning

年份:2020

该函数的由来是记忆窗口函数,提出了一个记忆窗口函数:
R M ( x ) = j ( 1 ( 0.25 t ⋅ ( 1 + e − x ) + 0.75 ) p ) RM(x) = j(\frac{1}{(0.25t\cdot (1+e^{-x})+0.75)^p}) RM(x)=j((0.25t(1+ex)+0.75)p1)
在将RM(x)与 α x \alpha x αx相乘,由此改为激活函数:
R M A F ( x ) = j ( 1 ( 0.25 ⋅ ( 1 + e − x ) + 0.75 ) p ) ⋅ α x RMAF(x) = j(\frac{1}{(0.25\cdot (1+e^{-x})+0.75)^p})\cdot \alpha x RMAF(x)=j((0.25(1+ex)+0.75)p1)αx
其中参数 α \alpha α为可训练参数,参数 p > 0 p>0 p>0,控制区域的平坦度。通过参数的调整, j j j p p p使函数类似于ReLU,可以扩展到任意更定的网络。
具体的函数曲线如下图所示:
在这里插入图片描述
该函数的导数为:
∂ f ( x ) ∂ x = α ( 0.25 ( 1 + e − x ) + 0.75 ) p + 0.25 p α x e − x ( 0.25 ( 1 + e − x ) + 0.75 ) p + 1 \frac{\partial f(x)}{\partial x} = \frac{\alpha}{(0.25(1+e^{-x})+0.75)^p} + \frac{0.25p \alpha x e^{-x}}{(0.25(1+e^{-x})+0.75)^{p+1}} xf(x)=(0.25(1+ex)+0.75)pα+(0.25(1+ex)+0.75)p+10.25pαxex
RMAF导数曲线如下图所示:
在这里插入图片描述

总结

  • RMAF是基于记忆窗口函数的特性,该函数可以对深度网路进行调整。
  • RMAF由常数超参数 α \alpha α和阈值 p p p组成,使得该函数平滑且不单调。
  • 从该函数的梯度可以看出,梯度计算较为复杂,训练时间较长。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值