python lstm_python-Keras中LSTM的补充

好的,所以您的问题让我开始思考,我想我已经解决了,但是什么都没有.

这是我为获取LSTM实现背后的一些见识而编写的代码段.

from keras.layers import LSTM

from keras.models import Sequential

model = Sequential()

model.add(LSTM(10, input_shape=(20, 30), return_sequences=True))

model.compile(loss='mse',optimizer='adam', metrics=['accuracy'])

weights = model.get_weights()

现在,通过检查砝码形状,我们可以直观了解发生的情况.

In [12]: weights[0].shape

Out[12]: (30, 40)

In [14]: weights[1].shape

Out[14]: (10, 40)

In [15]: weights[2].shape

Out[15]: (40,)

这是对它们的描述:

In [26]: model.weights

Out[26]:

[,

,

]

因此,您可以看到@gorjan是正确的,它实现了一个单元格,即4个门(用于循环输入和序列输入)及其偏置.

此处的“层”思想应应用于LSTM展开的次数,在这种情况下为30.

希望这可以帮助.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值