Keras学习笔记02——常用的网络层

本文介绍了Keras中常用的网络层,包括Dense、Activation、Dropout、Flatten、Reshape,以及卷积层Convolution2D、Deconvolution2D,池化层MaxPooling2D,规范层BatchNormalization,详细解析了各层的功能、参数及其作用。
摘要由CSDN通过智能技术生成

在搭建神经网络结构时,我们要向网络中添加一些网络层,下面列举出来常用的网络层及其相关用法。

一、常用层

常用层对应于core模块,core内部定义了一系列常用的网络层,包括全连接、激活层等。

1.Dense层

Dense层:全连接层。

keras.layers.core.Dense(output_dim, init='glorot_uniform', activation='linear', weights=None, W_regularizer=None, b_regularizer=None, activity_regularizer=None, W_constraint=None, b_constraint=None, bias=True, input_dim=None)
  • output_dim:大于0的整数,代表该层的输出维度。模型中非首层的全连接层其输入维度可以自动推断,因此非首层的全连接定义时不需要指定输入维度。
  • init:初始化方法,为预定义初始化方法名的字符串,或用于初始化权重的Theano函数。该参数仅在不传递weights参数时才有意义。
  • activation:激活函数,为预定义的激活函数名,或逐元素(element-wise)的Theano函数。如果不指定该参数,将不会使用任何激活函数(即使用线性激活函数:a(x)=x)。
  • weights:权值,为numpy array的list。该list应含有一个形如(input_dim,output_dim)的权重矩阵和一个形如(output_dim,)的偏置向量。
  • W_regularizer:施加在权重上的正则项,为WeightRegularizer对象。
  • b_regularizer:施加在偏置向量上的正则项,为WeightRegularizer对象。
  • activity_regularizer:施加在输出上的正则项,为ActivityRegularizer对象。
  • W_constraints:施加在权重上的约束项,为Constraints对象。
  • b_constraints:施加在偏置上的约束项,为Constraints
  • 0
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值