[行为识别] 2018 AAAI 行为识别论文解读

Action Detection

[1] ++Action Recognition from Skeleton Data via Analogical Generalization over Qualitative
Representations
Kezhen Chen*, Kenneth Forbus++

  • 思路: 从骨架图中学习人的行为

[2] ++Action Recognition with Coarse-to-Fine Deep Feature Integration and Asynchronous Fusion
Weiyao Lin*, Yang Mi, Jianxin Wu, Ke Lu, Hongkai Xiong++

  • 提高精度的方法

    • 生成更加具有针对性的动作特征,来更好的代表某个动作
    • 减少不同信息流的异步性
  • 思路:

    • 由粗到细的网络提取共享的深层特征,然后逐步融合获得更好的表征特征
    • 异步融合网络,在不同时间融合来自不同流的信息
  • 结果:

    • 无IDT的。UCF101上是94.3%,HMDB51是69.0%
    • 有IDT的。UCF101上是95.2%,HMDB51上是72.6%

[3] ++Cooperative Training of Deep Aggregation Networks for RGB-D Action Recognition
Pichao Wang*, Wanqing Li, Jun Wan, Philip Ogunbona, Xinwang Liu++

  • 网络结构:该篇文章针对的是RGB-D图像,所以并没有细看~
    这里写图片描述

  • 思路:

    • 在RGB-D的视觉特征和深度特征上训练c-ConvNet卷积网络
    • 通过联合ranking loss和softmax loss能增强深度可分离特征的学习,也就是可以学到更加具有区分性的深度特征
  • 实验结果

    • ChaLearn LAP Iso
  • 9
    点赞
  • 73
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
MADA (Multi-Agent Deep Deterministic Policy Gradient) 是一种多智能体强化学习(Multi-Agent Reinforcement Learning, MARL)的方法,它在2018年的AAAI会议上被提出。MADA主要关注的是解决MARL中的 Credit Assignment Problem(赋值问题),即如何正确地将奖励分配给每个智能体,以便它们能够独立学习和协作。 MADA的核心思想是利用深度确定性策略梯度(Deep Deterministic Policy Gradient,DDPG)算法的一个扩展,它引入了代理到动作的加权归一化,这有助于减少环境中复杂交互导致的 credit assignment 不确定性。具体来说: 1. **经验回放**:MADA使用经验池来存储每个智能体的观察、动作和奖励数据,用于训练模型。 2. **代理动作归一化**:对于每个智能体,它的行为是基于其个体经验进行加权平均,这样可以确保即使在复杂的交互中,每个智能体的行为仍然可以独立解释。 3. **加权策略更新**:在策略网络更新时,考虑了其他智能体的当前行为,这样能更好地协调各个智能体的动作。 4. **协同训练**:MADA通常采用协同学习的方式,让所有智能体同时训练,以提高整体的团队性能。 要详细了解MADA的代码实现,你可以查看其原始论文《MADDPG: Cooperative Multi-Agent Deep Deterministic Policy Gradients》中的代码示例,这些通常会在GitHub上发布。你可以在相关研究者或项目仓库中找到源代码,例如TensorFlow或PyTorch实现。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值