keras中使用LSTM实现一对多和多对多

  • 一、前言

 1、TimeDistributed和Dense的使用
下面代码是keras里面给出的解释:


        # as the first layer in a model
        model = Sequential()
        model.add(TimeDistributed(Dense(8), input_shape=(10, 16)))
        # now model.output_shape == (None, 10, 8)

从上述代码中可以发现,TimeDistributed和Dense一起配合使用,主要应用于一对多,多对多的情况。

input_shape = (10,16),表示步长是10,每一步的维度为16,(即:每一个数据的属性长度为16))

首先使用TimeDistributed(Dense(8),input_shape = (10,16))把每一步的维度为16变成8,不改变步长的大小

若该层的批输入形状然后(50, 10, 16),则这一层之后的输出为(50, 10, 8)

2、RepeatVector的使用

这个是keras官网给出的解释

```python
        model = Sequential()
        model.add(Dense(32, input_dim=32))
        # now: model.output_shape == (None, 32)
        # note: `None` is the batch dimension

        model.add(RepeatVector(3))
        # now: model.output_shape == (None, 3, 32)
    ```

解释:如果输入的形状为(None,32),经过添加RepeatVector(3)层之后,输出变为(None,3,32),RepeatVector不改变我们的步长,改变我们的每一步的维数(即:属性长度)

  • 二、一对多

from keras.models import Sequential
from keras.layers import LSTM,Dense,TimeDistributed,RepeatVector

batch_size = 50
n_in = 1
vector = 10
n_out = 5
model = Sequential()
model.add(LSTM(150, batch_input_shape=(batch_size, n_in, vector), stateful=True))
model.add(RepeatVector(n_out))
model.add(LSTM(150, return_sequences=True, stateful=True))
model.add(TimeDistributed(Dense(vector, activation='softmax')))
print(model.summary())

解释:输入的数据结构为(50,1,10),输出的数据结构为(50,5,10),实现了一对多

  • 三、多对多

3.1、多对多之输入与输出的序列长度相同

 

from keras.models import Sequential
from keras.layers import LSTM, Dense, TimeDistributed, RepeatVector

batch_size = 50
in_steps = 10
in_vector = 10
out_vector = 100
model = Sequential()
model.add(LSTM(150, batch_input_shape=(batch_size, in_steps, in_vector), stateful=True, return_sequences=True))
model.add(TimeDistributed(Dense(out_vector, activation='softmax')))
print(model.summary())

解释:输入的数据结构为(50,10,10),输出的数据结构为(50,10,100),实现了多对多中的输入与输入序列长度相同

3.2、多对多之输入与输出的序列长度不同

from keras.models import Sequential
from keras.layers import LSTM, Dense, TimeDistributed, RepeatVector

batch_size = 50
in_steps = 10
in_vector = 10
out_vector = 100
model = Sequential()
model.add(LSTM(150, batch_input_shape=(batch_size, in_steps, in_vector), stateful=True))
model.add(RepeatVector(20))
model.add(TimeDistributed(Dense(out_vector, activation='softmax')))
print(model.summary())

 

解释:输入的数据结构为(50,10,10),输出的数据结构为(50,20,100),实现了多对多中的输入与输入序列长度不同

部分代码解释:

model.add(LSTM(150, batch_input_shape=(batch_size, in_steps, in_vector), stateful=True))
model.add(RepeatVector(20))

在LSTM后面添加RepeatVector层的时候,必须保障没有在LSTM中没有return_sequences=True,因为RepeatVector需要的是二维输入,而不是三维

model.add(LSTM(150, batch_input_shape=(batch_size, in_steps, in_vector), stateful=True,return_sequences=True))
model.add(TimeDistributed(Dense(out_vector, activation='softmax')))

在LSTM后面添加TimeDistributed层的时候,必须保障在LSTM中有return_sequences=True,因为TimeDistributed需要的是三维输入。

小贴士:

RepeatVector主要作用于步长

TimeDistributed主要作用于每一步向量长度(即:属性大小)

 

  • 8
    点赞
  • 67
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Keras是一个开源的神经网络库,可以用于构建和训练各种类型的深度学习模型。多层LSTM是指在Keras使用多个LSTM层来构建神经网络模型。 通过引用提供的链接,您可以找到一个基于Keras的多层LSTM实现的数据集的示例代码。这个代码示例展示了如何使用Keras库来构建一个多层LSTM模型,并将其应用于某个数据集。 在这个示例代码,作者首先导入了所需的库和模块,然后定义了一个LSTM模型。模型包含了多个LSTM层,这些层可以用来处理不同的时间步长的输入数据。接下来,作者加载了一个数据集,并对其进行预处理。然后,他们将数据分为训练集和测试集,并将其输入到LSTM模型进行训练和测试。 如果您对具体的代码实现感兴趣,可以点击链接查看详细代码并学习如何使用Keras构建和训练多层LSTM模型。<span class="em">1</span><span class="em">2</span> #### 引用[.reference_title] - *1* [基于keras多层LSTM实现数据集](https://download.csdn.net/download/chaochaopang0/10405315)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* [Keras的一些简单的Demo](https://download.csdn.net/download/weixin_44651576/10954049)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值