Keras高级激活层

https://keras-cn.readthedocs.io/en/latest/layers/advanced_activation_layer/

1 LeakyReLU层

keras.layers.advanced_activations.LeakyReLU(alpha=0.3)

LeakyRelU是修正线性单元(Rectified Linear Unit,ReLU)的特殊版本,当不激活时,LeakyReLU仍然会有非零输出值,从而获得一个小梯度,避免ReLU可能出现的神经元“死亡”现象。即,f(x)=alpha * x for x < 0, f(x) = x for x>=0

参数;
alpha:大于0的浮点数,代表激活函数图像中第三象限线段的斜率
输入shape:任意,当使用该层为模型首层时需指定input_shape参数
输出shape:与输入相同

2 PReLU层

keras.layers.advanced_activations.PReLU(
alpha_initializer='zeros', alpha_regularizer=None, alpha_constraint=None, shared_axes=None)

该层为参数化的ReLU(Parametric ReLU),表达式是:f(x) = alpha * x for x < 0, f(x) = x for x>=0,此处的alpha为一个与xshape相同的可学习的参数向量。

参数
alpha_initializer:alpha的初始化函数
alpha_regularizer:alpha的正则项
alpha_constraint:alpha的约束项
shared_axes:该参数指定的轴将共享同一组科学系参数,例如假如输入特征图是从2D卷积过来的,具有形如(batch, height, width, channels)这样的shape,则或许你会希望在空域共享参数,这样每个filter就只有一组参数,设定shared_axes=[1,2]可完成该目标
输入shape :任意,当使用该层为模型首层时需指定input_shape参数
输出shape:与输入相同

3 ELU层

keras.layers.advanced_activations.ELU(alpha=1.0)

ELU层是指数线性单元(Exponential Linera Unit),表达式为: 该层为参数化的ReLU(Parametric ReLU),表达式是:

f(x) = alpha * (exp(x) - 1.) for x < 0, f(x) = x for x>=0

参数
alpha:控制负因子的参数
输入shape:任意,当使用该层为模型首层时需指定input_shape参数
输出shape:与输入相同

4 ThresholdedReLU层

keras.layers.advanced_activations.ThresholdedReLU(theta=1.0)

该层是带有门限的ReLU,表达式是:f(x) = x for x > theta,f(x) = 0 otherwise

参数
theata:大或等于0的浮点数,激活门限位置
输入shape:任意,当使用该层为模型首层时需指定input_shape参数
输出shape:与输入相同

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值