Learning Activation Functions to Improve Deep Neural Networks(APL激活函数)

Learning Activation Functions to Improve Deep Neural Networks

ICLR2015
加州大学欧文分校;Adobe

提出新的激活函数adaptive piecewise linear (APL),其实就是“RELU+分段函数”,分段的参数是学习到的。

公式与示意图

在这里插入图片描述

在这里插入图片描述
  1)输入为NHW,令它们为maps-1,每张为map-1

  2)每张map-1的每个点会通过K种不同的分段函数(故APL会有2KHW个参数),则一张map-1会得到K张map-2。
  再将这K张中间map-2进行element-sum,得到1张map-3。

  3)经过2),我们会得到N张map-3,对这N张map-3卷积

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值