直播预告 | ICLR 2022:UniFormer—用于高效时空表征学习的统一变换器

c7f30e199d52d5287db4a0e690783a04.gif

3cbca5d3435678d1a84207b317b366e4.png

本期 AI Drive,我们邀请到中国科学院深圳先进技术研究院在读博士生黎昆昌,为大家在线解读其发表在 ICLR 2022 的最新研究成果。本次报告的主题为「UniFormer:用于高效时空表征学习的统一变换器」。对本期主题感兴趣的小伙伴,4 月 26 日(本周二)晚 7 点,我们准时相约 PaperWeekly 直播间。

7ae7b52d8e67e5e8164d711cb3a922e3.png

直播信息

视频帧间存在巨大的局部冗余性与复杂的全局依赖性,使得从视频中学习丰富的多尺度语义信息极具挑战。现有的两大主流模型 CNN 和 ViT,往往只关注解决问题之一。卷积只在局部小邻域聚合上下文,天然地避免了冗余的全局计算,但受限的感受野难以建模全局依赖;而自注意力通过比较全局相似度,自然将长距离目标关联,但可视化分析表明,自注意力在浅层编码局部特征十分低效。

在 UniFormer 中,我们以 Transformer 的风格统一了卷积与自注意力,在网络浅层和深层分别解决冗余性与长时依赖性两大问题。实验表明,UniFormer 不仅在视频分类上性能优越,而且拓展到图像分类、检测、分割和姿态估计任务上,同样效果显著。

论文信息

文标题: 

UniFormer: Unified Transformer for Efficient Spatiotemporal Representation Learning

收录会议: 

ICLR 2022

论文链接: 

https://openreview.net/forum?id=nBU_u6DLvoK

演讲提纲

  • 研究背景

  • 研究方法

  • 结果分析

  • 下游拓展

  • 结果与展望

8eb753eae6b3f030227ceeba4a44e5ef.png

嘉宾介绍

fa99b87e0d6ac7821689a1ed6dca85d2.png

 黎昆昌 / 中科院深圳先进院博士生 

黎昆昌,中国科学院深圳先进技术研究院二年级博士生,师从乔宇研究员和王亚立副研究员。主要研究方向为为视频理解与轻量化模型设计。

c7ac3f0c1d5c3667baaf11d4e94c7d4c.png

直播地址

本次直播将在 PaperWeekly 视频号和 B 站直播间进行,扫描下方海报二维码或点击阅读原文即可免费观看。

 微信视频号 

点击下方 PaperWeekly 视频号预约按钮,第一时间获取开播提醒。

 B站直播间 

https://live.bilibili.com/14884511

9c8bc28472b794bac280268071f28dd5.png

18a006a6eec892ba56bb70051609e091.png

4191b7ee553764c61da0a5883ce93bed.png

合作伙伴


1d9edd1296324382b01bc64a540c962c.png

2e7e9d6884f822f58a46ab57eaca26ca.png

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

30aeb31ec97d8fa6f65a42da0945ff7f.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值