基于Theano的深度学习(Deep Learning)框架Keras学习随笔-16-Normalization

        本文来自CSDN博客:http://blog.csdn.net/niuwei22007/article/details/49405199

        本篇介绍的内容很少,只有一项就是归一化层。顾名思义就是能够对输入输出进行归一化操作的结构层。

一、BatchNormalization

keras.layers.normalization.BatchNormalization(epsilon=1e-6, weights=None)

        将前一层的激活输出按照数据batch进行归一化。

        inputshape: 任意。当把该层作为模型的第一层时,必须使用该参数(是一个整数元组,不包括样本维度)

        outputshape: 同input shape一样。

        参数

  • epsilon :small float>0,Fuzz parameter。
  • weights:初始化权值。含有2个numpy arrays的list,其shape是[(input_shape,), (input_shape,)]

        本小节参考文献

参考资料:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值