keras 中 TimeDistributed 层封装器
官方文档的说明是:
这个封装器将一个层应用于输入的每个时间片。
输入至少为 3D,且第一个维度应该是时间所表示的维度。
考虑 32 个样本的一个 batch, 其中每个样本是 10 个 16 维向量的序列。 那么这个 batch 的输入尺寸为 (32, 10, 16), 而 input_shape 不包含样本数量的维度,为 (10, 16)。
你可以使用 TimeDistributed 来将 Dense 层独立地应用到 这 10 个时间步的每一个:
# 作为模型第一层
model = Sequential()
model.add(TimeDistributed(Dense(8), input_shape=(10, 16)))
# 现在 model.output_shape == (None, 10, 8)
TimeDistributed 可以应用于任意层,不仅仅是 Dense, 例如运用于 Conv2D 层:
model = Sequential()
model.add(TimeDistributed(Conv2D(64, (3, 3)),
input_shape=(10, 299, 299, 3)))
pytorch 中实现相应的封装器。
类似keras中的TimeDistributed封装器,以三维输入为例(输入至少为三维),分别为(samples, timesteps, input_size),合并所有的时间步,然后对每个时间步上都进行相同的处理,参数