字节实习生开发的 AI 竟然被网友用在了王冰冰身上!

点击关注公众号,回复“2T”获取2TB学习资源!

互联网架构师后台回复 2T 有特别礼包

上一篇:深夜看了张一鸣的微博,让我越想越后怕

来源:量子位

看这一头蓬松的秀发,加上帅气的动作,你以为是在绿幕前拍大片?

b1d55aff5f697e573dc680eefe5f0f01.gif

No、No、No

这其实是AI拿来视频实时抠图后的效果。

没想到吧,实时视频抠图,现在能精细到每一根发丝。

e5e7c99ce50876cd9d8bd5c2b794c80f.gif

换到alpha通道再看一眼,不用多说,德芙打钱吧(手动狗头)。

a15a8bea4776bf9d483c3fbd4fb55d62.gif

这就是来自字节跳动实习生小哥的最新研究:实时高分辨率视频抠图大法。

无需任何辅助输入,把视频丢给这个名为RVM的AI,它分分钟就能帮你把人像高精度抠出,将背景替换成可以任意二次加工的绿幕。

5a95cb18122210112f8300fe43c3a881.gif

不信有这么丝滑?我们用线上Demo亲自尝试了一波。

83b75bf6986d93e97f32cb473baf437a.gif

相比之下,现在在线会议软件里的抠图,一旦头发遮住脸,人就会消失……

76947e52accc47262c3be24ce6388a5a.gif

头发丝更是明显糊了。

577ff45caa0661ce1552f5768ac13b02.png

难怪看得网友直言:

不敢想象你们把这只AI塞进手机里的样子。

8547cce7ce5e05c869895041711592af.png

目前,这篇论文已经入选WACV 2022,

你也可以上手一试

目前,RVM已经在GitHub上开源,并给出了两种试玩途径:

00a629bd6162c6ae04bbd9b163d6a536.png

于是我们也赶紧上手试了试。

先来看看效果:

37cafa840bda7f5578d2f94c56aab051.gif

首先来点难度低的。

对于这种人物在画面中基本不移动的情况,RVM可以说是表现的非常好,和人工抠图几乎无差别。

现在,王冰冰进入动森都毫不违和了。

e6e1e08fb899ae718082e06625e69259.gif

于是开脑洞,也变得简单了许多……

7c65271e027d676b0f1c7d29421bf76f.gif

咳咳,言归正传。人物动作幅度加大会怎样呢?

04c2b88ed699c446021173d29c3a2ecd.gif

对于多人舞蹈视频而言,RVM的表现也很nice。

即便动来动去、头发乱甩,也没有影响它的抠图效果。

只有在人物出现遮挡的情况下,才会出现瑕疵。

对比前辈方法MODNet,确实有不小的进步。

b3fe502a30b1d1e25a2f5acae8653622.gif

不过我们也发现,如果视频的背景较暗,就会影响RVM的发挥。

比如在这种背景光线昏暗的情况下,抠图的效果就非常不尽人意了。

cdec08952323e8b85caf7c0293f6d5df.png

可以看到,博主老哥的头发完全糊了。

而且身体的边界线也不够清晰。

c00534d36c6161e35a903e638cd1d3ea.gif

所以,如果你想自己拍视频试玩,就一定要选择光线充足的场景。


利用时间信息

那么这样的“魔法”,具体又是如何实现的?

照例,我们先来扒一扒论文~

e623b8a3f2bf0b9fafd624a74b5c0cb6.png

实际上,有关视频抠图的算法如今已不鲜见,其中大多数采用的是将视频中的每一帧作为独立图像来实现抠图的方法。

不同与此,在这篇论文中,研究人员构建了一个循环架构,利用上了视频的时间信息,在时间一致性和抠图质量上取得了明显改进。

0b78ce61f0d1dd4d93fe5ac02b14aae3.png

从上图中可以看出,RVM的网络架构包括3个部分:

特征提取编码器,用来提取单帧特征;

循环解码器,用于汇总时间信息;

深度引导滤波(DGF)模块,用于高分辨率上采样。

其中,循环机制的引入使得AI能够在连续的视频流中自我学习,从而了解到哪些信息需要保留,哪些信息可以遗忘掉。

具体而言,循环解码器采用了多尺度ConvGRU来聚合时间信息。其定义如下:

f17290c54796b1f287a1affcc30d03c9.png

在这个编码器-解码器网络中,AI会完成对高分辨率视频的下采样,然后再使用DGF对结果进行上采样。

除此之外,研究人员还提出了一种新的训练策略:同时使用抠图和语义分割目标数据集来训练网络。

这样做到好处在于:

首先,人像抠图与人像分割任务密切相关,AI必须学会从语义上理解场景,才能在定位人物主体方面具备鲁棒性。

其次,现有的大部分抠图数据集只提供真实的alpha通道和前景信息,所以必须对背景图像进行合成。但前景和背景的光照往往不同,这就影响了合成的效果。语义分割数据集的引入可以有效防止过拟合。

最后,语义分割数据集拥有更为丰富的训练数据。

经过这一番调教之后,RVM和前辈们比起来,有怎样的改进?

从效果对比中就可以明显感受到了:

0987599219b147ae2f67d31d59f4467e.gif

另外,与MODNet相比,RVM更轻更快。

eb7a7d6d282659d1b902147d140f25d0.png

从下面这张表格中可以看出,在1080p视频上RVM的处理速度是最快的,在512×288上比BGMv2略慢,在4K视频上则比带FGF的MODNet慢一点。研究人员分析,这是因为RVM除了alpha通道外还预判了前景。

61b4a3efbe2caecf61656129850075a3.png

更直观的数据是,在英伟达GTX 1080Ti上,RVM能以76FPS的速度处理4K视频,以104FPS的速度处理HD视频。

一作字节跳动实习生

这篇论文是一作林山川在字节跳动实习期间完成的。

02c89394ac5c2de74db8e3ecb0c0d1d7.png

他本科、硕士均毕业于华盛顿大学,曾先后在Adobe、Facebook等大厂实习。

2021年3月-6月,林山川在字节跳动实习。8月刚刚入职微软。

事实上,林山川此前就曾凭借AI抠图大法拿下CVPR 2021最佳学生论文荣誉奖。

他以一作身份发表论文《Real-Time High-Resolution Background Matting》,提出了Background Matting V2方法。

7482a894338edc1b5d0346e946f744f3.png

这一方法能够以30FPS的速度处理4K视频,以60FPS的速度处理HD视频。

值得一提的是,Background Matting这一系列方法不止一次中了CVPR。此前,第一代Background Matting就被CVPR 2020收录。

a17d78be334f95add13b6a74492a5f3d.png

两次论文的通讯作者都是华盛顿大学副教授Ira Kemelmacher-Shlizerman,她的研究方向为计算机视觉、计算机图形、AR/VR等。

67c98d534d7a5269c993ec206607af86.png

此外,本次论文的二作为Linjie Yang,他是字节跳动的研究科学家。本科毕业于清华大学,在香港中文大学获得博士学位。

fae75da9e9ff40d33a5476b1b4de71b1.png

对了,除了能在Colab上试用之外,你也可以在网页版上实时感受一下这只AI的效果,

地址:

https://peterl1n.github.io/RobustVideoMatting/#/demo

GitHub地址:
https://github.com/PeterL1n/RobustVideoMatting
论文地址:
https://arxiv.org/abs/2108.11515
参考链接:
https://www.reddit.com/r/MachineLearning/comments/pdbpmg/r_robust_highresolution_video_matting_with

感谢您的阅读,也欢迎您发表关于这篇文章的任何建议,关注我,技术不迷茫!小编到你上高速。

    · END ·

最后,关注公众号互联网架构师,在后台回复:2T,可以获取我整理的 Java 系列面试题和答案,非常齐全。

正文结束

推荐阅读 ↓↓↓

1.不认命,从10年流水线工人,到谷歌上班的程序媛,一位湖南妹子的励志故事

2.如何才能成为优秀的架构师?

3.从零开始搭建创业公司后台技术栈

4.程序员一般可以从什么平台接私活?

5.37岁程序员被裁,120天没找到工作,无奈去小公司,结果懵了...

6.IntelliJ IDEA 2019.3 首个最新访问版本发布,新特性抢先看

7.这封“领导痛批95后下属”的邮件,句句扎心!

8.15张图看懂瞎忙和高效的区别!

123217dd27336b651790d2f034bc32c0.png

一个人学习、工作很迷茫?

点击「阅读原文」加入我们的小圈子!

dbf569999bde9e6a09ea4f2d7fc114ad.gif

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值