keras中的TimeDistributed的作用解释

  1. 循环神经网络中

1.1 前戏
输入向量维度为:[batch, timesteps,sequences] , 假设为[100, 20,10],

from keras.models import Sequential
from keras.layers import Dense
from keras.layers import TimeDistributed
from keras.layers import LSTM
batch=100
timesteps=20
sequences=10
output_nodes=5
model=Sequential()
model.add(LSTM(output_nodes,input_shape=(timesteps,sequences),,return_sequences=False))  ##注意,这里的return_sequences为false
print(model.summary())  

在这里插入图片描述
在循环神经网络中,每一个时间步都会输出一个output_nodes大小的向量,即当输入为[100,20,10]时候,输出为[100,20,5], 但是当去return_sequences=false时,就会只显示最后一个时间步的输出,即为[100, -1.5],省略中间的一个维度,为[100,5],而keras的batchs在显示中为None,只需要在model.fit中注明batchs为多少就好。

model.add(LSTM(output_nodes,input_shape=(timesteps,sequences),return_sequences=True))  #当return_sequences=True时

在这里插入图片描述
1.2 饭前清汤
上面讲到当return_sequences为True时,每一步都会返回一个output_nodes大小的向量,
而TimeDistributed就用在这个时候。
如在经过时间序列后,我们想进行全连接,输出节点为1,
代码如下:

from keras.models import Sequential
from keras.layers import Dense
from keras.layers import TimeDistributed
from keras.layers import LSTM
batch=100
timesteps=20
sequences=10
output_nodes=5
model=Sequential()
model.add(LSTM(output_nodes,input_shape=(timesteps,sequences),,return_sequences=True))
model.add(TimeDistributed(Dense(1)))
print(model.summary())  


此时的全连接为:对每个时间步的生成值,即节点数5,进行全连接,即 [1,5]*[5,1]=1,共计20个时间步,因此输出维度为 [20,1].

也就是 对每个时间步的数据都做一个相同的操作,比较方便保持数据的维度。

  • 5
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值