[骨架动作识别]Global Context-Aware Attention LSTM

1. Introduction

本文的主要结构是一个两层的lstm,第一层生成global context memory(GCA),就是一个全局的背景信息。第二层LSTM加了注意力模型。这个注意力信息的生成有来自第一层的全局背景信息GCA的辅助,然后生成的注意力信息再用来重新调节全局背景GCA信息。是一个反复迭代的过程。最后GCA被用来分类。
这里写图片描述
为什么要这样做?

  • 对于普通的LSTM而言,虽然后来的step包含更多的累积信息,但是相对于初始帧来说,背景信息还是非常local。本文的GCA-LSTM,将初始背景信息送给每一个step。
  • 不是所有的节点都有有用信息,所以引入注意力模型

ST-LSTM

S for Spatial
T for Temporal

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值