Self-Attention ConvLSTM for Spatiotemporal Prediction

Self-Attention ConvLSTM for Spatiotemporal Prediction

现有的工作集中于在标准的ConvLSTM中嵌入额外的单元来记忆预测过程中的空间表象。这些模型总是依赖于卷积层来获取空间相关性,这是局部的和低效的。然而,长程空间依赖性对空间应用意义重大。为了提取具有全局依赖和局部依赖的空间特征,我们在ConvLSTM中引入了自注意机制。提出了一种新的自我注意记忆(self-attention memory, SAM)方法,用于记忆具有长期空间和时间依赖性的特征。该方法基于自我注意,通过对相似度评分对输入本身和记忆特征的所有位置进行特征聚合,从而产生特征。此外,附加存储器通过对聚合特性和具有前一个时间步的存储器的已建立的门控机制来更新。因此,通过SAM,我们可以提取具有较长时空相关性的特征。此外,我们还将其嵌入到一个标准的ConvLSTM中,构建了一个用于时空预测的自注意ConvLSTM (SA-ConvLSTM)。在实验中,我们采用SA-ConvLSTM对MovingMNIST和KTH数据集进行帧预测,对TexiBJ数据集进行交通流预测。我们的SA-ConvLSTM在两个数据集上都获得了最先进的结果,与以前最先进的方法相比,参数更少,时间效率更高。

论文贡献:

1.我们提出了一种新的ConvLSTM变种,命名为SAConvLSTM来执行时空预测,它可以成功地捕获长期空间依赖性。

2.我们设计了一个基于记忆的自我注意模块(SAM)来记忆预测过程中的全局时空相关性

Methods

为了评估自我注意在时空预测中的有效性,我们通过将自我注意模块与标准ConvLSTM级联构建了一个基本的自我注意ConvLSTM模型。然后,在自我注意内存模块的基础上,构建了一个更先进、更复杂的模型SAConvLSTM

Self-Attention Memory Module

我们认为,对当前时间步长的预测可以受益于过去的相关特征。因此,我们通过构造一个带有自我注意机制的新内存单元M,提出了一个自我注意内存模块。我们使用所提出的记忆单元来表示一般的时空信息,它具有全局的时空感受野

Self-Attention ConvLSTM

我们把自我注意记忆模块嵌入构造SA-ConvLSTM

Experiments

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值