2019-CVPR-Google-Learning the Depths of Moving People by Watching Frozen People

谷歌提出了一种新方法,通过深度学习从#假人挑战#视频中学习人体姿态和形状的先验知识,从而在移动相机和人物同时运动的情况下重建景深图。他们使用2D光流、人像分割网络和沙漏模型,成功预测移动人物的深度,创建稠密的景深图。这种方法依赖于多视角立体算法和训练数据中的人体形状信息,能处理复杂的视频场景。
摘要由CSDN通过智能技术生成

从视频中重建了移动对象的景深图。即使拍摄相机和人物同时在运动,也能很好重建景深图。

和传统方法最大的改进在于,谷歌的新方法可以用深度学习,从数据中学习人体姿态和形状的先验知识,避开了直接的3D三角测量。

构建数据集:
选取了YouTube上关于#假人挑战#(Mannequin Challenge)话题的数据,在这种类型的视频中,被拍摄者需做出一个定格动作,且要表现与人体模型一样静止不动,并由摄影师透过移动镜头的技巧进行拍摄。
再利用多视角立体(Multi-View Stereo,MVS)算法,就可以获取到包含其中人物在内整个场景的(稀疏)深度图了。

构建稠密的景深图:
计算了视频中每一帧和其他帧之间(取2帧)的2D光流(2D optical flow),用来表示两帧之间的像素位移。

为了在测试时处理移动的人物,采用了人像分割网络( human-segmentation network)来掩盖初始深度图中的人类区域。整个网路的完整输入包括:(训练时用3个输入,测试时只用1个RGB图像输入)
RGB图像
人物mask
来自视差的mask深度图(由光流的视差计算得到的初始深度图,其中掩盖了人物区域)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

WX Chen

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值