2020 CVPR之视频动作识别:Multi-Modal Domain Adaptation for Fine-Grained Action Recognition

Multi-Modal Domain Adaptation for Fine-Grained Action Recognition
当前的问题及概述
无监督域适应(UDA)方法经常用于源域和目标域之间的对抗训练。但在一个环境中培训一个模型,然后部署到另一个环境中,由于不可避免的域转换,会导致性能下降。而且这些方法并没有探索视频在每个域中的多模态特性。
本文提出了多模态动作识别的UDA方法。改进的目标域性能是通过对源域和目标域同时进行多模态自监督来实现的,该自监督与多模态域鉴别器共同优化。如下图:
在这里插入图片描述
模型及loss
Multi-Modal Self- Supervised Adversarial Domain Adaptation (MM-SADA)网络框架:
在这里插入图片描述
源域和目标域采用用一个结构,通过two-stream结构分别提取RGB和Optical Flow(光流)特征,并加入了一个自监督对齐分类器C(只在标记过的源域中存在),它决定了是否从相同或不同的动作中采样以学习模态一致性。每个模态使用一个域鉴别器来预测给定图例来自哪个域。并通过GRL梯度反向传播。
2.1Multi-modal Action Recognition
首先模态分类器C loss采用交叉熵loss,σ 为softmax:

  • 0
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值