基于Theano的深度学习(Deep Learning)框架Keras学习随笔-15-Advanced Activation Layers

本文介绍了Keras中的几种高级激活层,包括LeakyReLU、PReLU、ParametricSoftplus、Thresholded Linear和Thresholded ReLU,这些激活层是ReLU的改进版,能提高神经网络性能。每种激活层的参数和功能都有详细说明。
摘要由CSDN通过智能技术生成

        本文来自CSDN博客:http://blog.csdn.net/niuwei22007/article/details/49375195

        前几篇介绍完了主要的核心层—用于构建普通的常用网络,卷积层—主要用于构建卷积神经网络CNN—反馈网络,递归层—主要用于构建递归神经网络/循环神经网络RNN—前馈网络。那么主流的几种网络已经介绍的差不多了。现在来介绍几个比较新的神经网络模型,都是最近几年神经网络领域大牛们根据最新研究的数学算法以及生物生理特性研发的。这几种网络我尚未实际使用过,因此只是简单的介绍一下方法及参数,具体的使用还是请各位读者自行研究,也可以留言讨论。我会在后期进行实际使用及了解之后,作进一步的介绍及使用过程详细更新。

        本节介绍的网络基本是基于ReLu(Rectified Linear Unit,线性纠正函数)改进的。而且这些模型都是经过实验证明其性能有显著提高。

一、LeakyReLU

keras.layers.advanced_activations.LeakyReLU(alpha=0.3)

        是ReLU(Rectified Linear Unit)的特殊版本,允许当单元不被激活(f(x)= alpha*x for x < 0)时也会有一个很小的梯度。

        inputshape: 任意。当把该层作为模型的第一层时,必须使用该参数(是一个整数元组,不包括样本维度)

        

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值