- 博客(2)
- 收藏
- 关注
转载 Parametric ReLU激活函数+注意力机制=自适应参数化ReLU激活函数
本文首先回顾了一些传统的激活函数和注意力机制,然后解读了一种“注意力机制下的新型ReLU激活函数”,也就是自适应参数化修正线性单元(Adaptively Parametric Rectifier Linear Unit,APReLU)。 1.激活函数激活函数是现代人工神经网络的核心部分,其用处是进行人工神经网络的非线性化。我们首先介绍几种最为常见的激活函数,即Sigmoid、Tanh和ReL...
2020-03-19 09:52:09
2187
1
转载 深度残差收缩网络:深度注意力机制下的软阈值化
深度残差网络(deep residual learning, ResNet)获得了2016年CVPR会议的最佳论文奖,截至目前,在谷歌学术上的引用次数已经达到了37225次。深度残差收缩网络(deep residual shrinkage network)是深度残差网络的一种新的升级版本,其实是深度残差网络、注意力机制(参照Squeeze-and-Excitation Network,SENe...
2020-01-16 22:00:43
1544
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人