convLSTM网络中的参数含义及计算问题

参数代表的含义

先贴一段模型代码代码

from keras.layers import (Input,ConvLSTM2D)
from keras.models import Model
from keras.models import Sequential

def Seq():
    '''
    input_shape为(time_steps, map_height, map_width, channels)
     time_steps 就是将一个样例分为多少个时间点读入,x1,x2...,xt,的t
     map_height, map_width, channels分别为输入图像的长、宽、高
     return_sequences为True时每一个时间点都有输出
     return_sequences为False时,只有最后一个时间点有输出
    '''
    seq = Sequential()
    seq.add(ConvLSTM2D(filters=30, kernel_size=(3, 3),input_shape=(15, 40, 40, 3),  \
                       padding='same', return_sequences=True,data_format='channels_last'))
	seq.add(ConvLSTM2D(filters=50, kernel_size=(3, 3),   \
                       padding='same', return_sequences=True,data_format='channels_last'))
	seq.add(ConvLSTM2D(filters=60, kernel_size=(3, 3),  \
                       padding='same', return_sequences=True,data_format='channels_last'))
    seq.add(ConvLSTM2D(filters=70, kernel_size=(3, 3),  \
    				  padding='same', return_sequences=False,data_format='channels_last'))
    seq.summary()
    
def main():

	'''	
     模型的另一种搭建形式
    '''
    Inputs=[]
    Outputs=[]
    input = Input(shape=(15, 40, 40, 3))
    Inputs.append(input)
    convlstm1 = ConvLSTM2D(filters=30, kernel_size=(3,3),padding='same',
     	 				   return_sequences=True,data_format='channels_last')(input)
    convlstm2 = ConvLSTM2D(filters=50, kernel_size=(3,3),padding='same',
    					   return_sequences=True, data_format='channels_last')(convlstm1)
    convlstm3 = ConvLSTM2D(filters=60, kernel_size=(3, 3),padding='same',
    					   return_sequences=True, data_format='channels_last')(convlstm2)
    convlstm4 = ConvLSTM2D(filters=70, kernel_size=(3, 3),padding='same',
                           return_sequences=False, data_format='channels_last')(convlstm3)
    Outputs.append(convlstm4)
    model =Model(inputs=input, outputs=convlstm4)
    model.summary()
if __name__ == '__main__':
    Seq()
    main()

运行结果如下所示

Model: "sequential_1"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
conv_lst_m2d_1 (ConvLSTM2D)  (None, 15, 40, 40, 30)    35760     
_________________________________________________________________
conv_lst_m2d_2 (ConvLSTM2D)  (None, 15, 40, 40, 50)    144200    
_________________________________________________________________
conv_lst_m2d_3 (ConvLSTM2D)  (None, 15, 40, 40, 60)    237840    
_________________________________________________________________
conv_lst_m2d_4 (ConvLSTM2D)  (None, 40, 40, 70)        327880    
=================================================================
Total params: 745,680
Trainable params: 745,680
Non-trainable params: 0
_________________________________________________________________
Model: "model_1"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
input_1 (InputLayer)         (None, 15, 40, 40, 3)     0         
_________________________________________________________________
conv_lst_m2d_5 (ConvLSTM2D)  (None, 15, 40, 40, 30)    35760     
_________________________________________________________________
conv_lst_m2d_6 (ConvLSTM2D)  (None, 15, 40, 40, 50)    144200    
_________________________________________________________________
conv_lst_m2d_7 (ConvLSTM2D)  (None, 15, 40, 40, 60)    237840    
_________________________________________________________________
conv_lst_m2d_8 (ConvLSTM2D)  (None, 40, 40, 70)        327880    
=================================================================
Total params: 745,680
Trainable params: 745,680
Non-trainable params: 0
_________________________________________________________________

LSTM模型的图如下所示

在这里插入图片描述

如上图所示,在LSTM的计算流程中,只有图中所示的4个部分需要参数,取其中之一展开,最后参数量 × 4 \times4 ×4即可。
在这里插入图片描述
上图是第一层卷积的示意图,卷积核 f i l t e r filter filter个数是30。
8940 × 4 = 35760 8940\times4=35760 8940×4=35760,即得到模型的 s u m m a r y summary summary输出结果中的35760。

设置第一层的 r e t u r n s e q u e n c e s = T r u e return_sequences=True returnsequences=True,可以将第一层的输出作为第二层的convLSTM的输入,输入的形状为 40 × 40 × 30 40\times40\times30 40×40×30,卷积核 f i l t e r = 40 filter=40 filter=40

在这里插入图片描述
36050 × 4 = 144200 36050\times4=144200 36050×4=144200,即得到模型的 s u m m a r y summary summary输出结果中的144200。
后面的层的计算以此类推即可。

  • 6
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
在Pythonconvlstm1d参数用于定义1D卷积LSTM层的参数。1D卷积LSTM是一种结合了1D卷积和LSTM(长短期记忆)的神经网络模型。 convlstm1d参数通常包括以下几个方面的设置: 1. filters(滤波器数目):用于指定该层输出的滤波器(或卷积核)的数目,其每个滤波器将产生一个输出通道。 2. kernel_size(卷积核尺寸):用于定义卷积核的窗口大小,可以是一个整数或一个元组。例如,kernel_size=3表示卷积核为3x1大小的窗口。 3. strides(步幅):用于指定卷积核在进行滑动时的步幅大小,默认值为1。较大的步幅可以减小输出尺寸。 4. padding(填充方式):用于控制卷积操作对边界像素的处理方式。通常有两种选择,"valid"表示不填充,"same"表示填充使得输出尺寸与输入尺寸相同。 5. activation(激活函数):用于激活神经网络层的输出。常见的激活函数有ReLU、Sigmoid和Tanh等。 6. return_sequences(是否返回完整序列):用于指定是否返回LSTM层的完整输出序列。如果为True,则返回维度为(batch_size, timesteps, filters)的完整序列,否则只返回最后一个时间步的输出。 7. dropout(丢弃率):用于控制在训练过程随机忽略神经元的比例,以减少过拟合。取值范围为0到1之间。 8. recurrent_dropout(循环丢弃率):用于控制在LSTM内部的循环连接随机忽略神经元的比例,以减少过拟合。取值范围为0到1之间。 以上是一些常见的convlstm1d参数设置,通过调整这些参数,可以对1D卷积LSTM层的行为进行灵活控制,以适应不同的应用场景和数据特点。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值