论文笔记
文章平均质量分 93
无敌小枫枫
这个作者很懒,什么都没留下…
展开
-
G-TAD(G-TAD: Sub-Graph Localization for Temporal Action Detection)论文代码01
G-TAD论文G-TAD数据输入gtad-postprocess.py动作分类实现细节实验对比GTAD论文实验AGT论文实验P-GCN论文实验导出与导入导出导入导出与导入导出导入G-TAD数据输入class VideoDataSet(data.Dataset): # thumos def __init__(self, opt, subset="train", mode="train"): self.temporal_scale = opt["temporal_scale"]翻译 2021-05-22 17:21:10 · 503 阅读 · 2 评论 -
P-GCN(Graph Convolutional Networks for Temporal Action Localization)01
P-GCN之前一直在看G-TAD的论文和代码,突然发现实验结果的地方,加了P-GCN。P-GCN结果真的强。代码地址:https://github.com/Alvin-Zeng/PGCN摘要部分大多数最先进的动作本地化系统都单独处理每个动作建议,而在学习过程中没有明确利用它们之间的关系。但是,提案之间的关系实际上在动作本地化中起着重要作用,因为有意义的动作始终在视频中包含多个提案。在本文中,我们建议使用图卷积网络(GCN)开发提案-提案关系。首先,我们构造一个行动建议图,其中每个建议都表示为一个节点翻译 2021-05-22 17:18:36 · 797 阅读 · 0 评论 -
论文笔记:Dynamic GCN: Context-enriched Topology Learning for Skeleton-based Action Recognition
原论文:Dynamic GCN: Context-enriched Topology Learning for Skeleton-based Action Recognition(暂未开源)Dynamic GCN:基于骨架的动作识别的上下文丰富的拓扑学习图卷积网络(GCN)对基于骨架的动作识别任务越来越感兴趣。关键在于图形结构的设计,该结构对骨架拓扑信息进行编码。在本文中,提出了Dynamic GCN,其中引入了一种新的卷积神经网络,称为上下文编码网络(CeN),以自动学习骨架拓扑。特别是,在学习两原创 2020-08-05 23:11:13 · 1789 阅读 · 0 评论 -
论文笔记:Temporal Complementary Learning for Video Person Re-Identification(TCLNet)用于视频行人重识别的时序互补学习
github代码地址:https://github.com/blue-blue272/VideoReID-TCLNet作者团队:中科院&国科大摘要:本文提出了一种时序互补学习(Temporal Complementary Learning)网络,该网络提取连续视频帧的互补特征以进行视频中的行人重识别。首先,我们介绍了一个时序显著性擦除(TSE)模块,其中包括显著性擦除操作和一系列有序学习器。 具体地,对于视频的特定帧,显著性擦除操作通过擦除由先前帧激活的部分来驱动特定学习者挖掘新的和互补的部原创 2020-08-04 19:25:32 · 1448 阅读 · 0 评论