LIVE 预告 | CVPR 2021 预讲 · 美团专场,覆盖实例分割,图像分割,表情识别,特征选择和对齐...

CVPR 2021 大会将于6月19日至 25日线上举行。为促进同行之间的交流与合作,智源社区近期举办了系列CVPR 2021预讲报告,其中实验室系列将汇聚国内顶尖高校和企业实验室的研究人员为大家分享其最新研究成果。

 

美团共有数十篇论文被本届 CVPR 大会接收,在以下领域实现进展:实例分割,表情识别,快速图像分割,特征选择和对齐等。智源社区邀请到其中 5 位一作研究者分享他们在CVPR上的工作,并邀请到美团视觉智能中心负责人 魏晓林博士对美团在CVPR 2021上的工作进展做完整阐述。

活动主题

CVPR 预讲 · 美团专场

活动时间

2021年4月7日(周三)晚7点

   

形式

线上直播

(Zoom + 智源社区 Hub + 智源社区B站)

观看方式

智源社区Hub直播

智源社区报名及直播

(社区报名,可收到短信定时提醒)

Zoom 观看

会议号:6011507040(无密码) 

B站直播

https://live.bilibili.com/21484823

欢迎加入智源CVPR兴趣组

(加入CVPR兴趣组,共同讨论最新进展)


活动议程:

报告内容详细介绍


 

讲者 1:魏晓林,美团视觉智能中心负责人

 

魏晓林,美团视觉智能中心负责人。获美国德克萨斯A&M大学博士学位,拥有30多项国际专利。曾任Google总部高级工程师,是推动Google 3D Maps从零到一发布的核心研发人员。曾在美国硅谷创立视觉技术公司Virtroid,研发了行业领先的环境理解和三维重建系统,被Magic Leap收购。

 


讲者 2:王钰晴

论文:End-to-End Video Instance Segmentation with Transformers

报告摘要:本文是第一个将Transformers应用于视频分割领域的方法。视频实例分割指的是同时对视频中感兴趣的物体进行分类,分割和跟踪的任务。现有的方法通常设计复杂的流程来解决此问题。本文提出了一种基于Transformers的视频实例分割新框架VisTR,该框架将视频实例分割任务视为直接端到端的并行序列解码和预测的问题。给定一个含有多帧图像的视频作为输入,VisTR直接按顺序输出视频中每个实例的掩码序列。该方法的核心是一种新的实例序列匹配和分割的策略,该策略在整个序列级别上对实例进行监督和分割。VisTR将实例分割和跟踪统一到了相似度学习的框架下,从而大大简化了流程。在没有任何trick的情况下,VisTR在所有使用单一模型的方法中获得了最佳效果,并且在YouTube-VIS数据集上实现了最快的速度。


讲者 3:阮德莲

论文:Feature Decomposition and Reconstruction Learning for Effective Facial Expression Recognition

报告摘要:考虑到不同类别的表情之间存在着相似性,本文认为人脸表情信息由不同表情之间的共享信息与每个表情的特定信息组成,提出了一种基于特征解构与重构学习的人脸表情识别方法。具体地,首先使用特征分解网络将基本特征分解为一系列能够感知面部动作的潜在特征,这些潜在特征有效地建模了表情中的共享信息。然后,特征重构网络分别对这一系列潜在特征向量进行特征内部和特征之间的相关性建模,从而学习表情的特有信息。实验结果表明该方法在三个室内数据集(包括 CK+、 MMI 和 Oulu­CASIA)和两个室外数据集(包括 RAF­DB 和 SFEW)上都有优越的性能表现。


讲者 4:范铭源

论文:Rethinking BiSeNet For Real-time Semantic Segmentation

报告摘要:本文从减少深度模型的结构性冗余的角度重新思考了经典的快速图像分割方法BiSeNet,从而对基础网络结构和解码器部分同时进行改进。在基础网络部分,提出了一种高效的短时密集连接网络,在不降低性能的情况下,大幅度提升推理速度。在解码器部分,通过使用细节引导模块加强浅层特征来代替细节分支,进一步减少了网络的结构性冗余。该模型在快速图像分割领域取得了领先水平,在相同性能下,速度比当前最好方法快45%以上。

 


讲者 5:吴桐

论文:Embedded Discriminative Attention Mechanism for Weakly Supervised Semantic Segmentation

报告摘要:使用图像级标注的弱监督语义分割通常将分类网络的类别激活图(CAM)视为语义分割的伪标签。然而这些激活图通常仅仅突显局部的具有区分性的区域,而不是语义分割所要求的物体的完整区域。为了生成更加完整的类别激活图,我们提出了Embedded Discriminative Attention Mechanism (EDAM) 将类别激活图的生成直接融合进了分类网络中。具体来说,我们使用了一个Discriminative Activation (DA) 层来生成类别独立的掩膜,并通过这些掩膜提取出各个类别独立的特征。随后我们通过Collaborative Multi-Attention (CMA)机制,聚合图片内和图片间的上下文信息。我们的方法在PASCAL VOC 2012的测试集上取得了70.6%的mIoU,达到了最优性能。

 


讲者 6:张明

论文:Partial Feature Selection and Alignment for Multi-Source Domain Adaptation

报告摘要:现有的多源域适应设置和方法常常忽略了两个方面的“部分性”,一是目标域的类别标签空间不完全包含于源域,二是源域特征中只有部分是与目标域高度相关的。我们提出了一个更加一般的多源域适应研究主题,名为多源部分域适应(MSPDA),同时提出一个部分特征选择和对齐框架网络(PFSA)能够处理传统MSDA问题和新提出的MSPDA问题。框架利用源域和目标域特征之间的相似性对源域特征进行选择,得到源域特征中与目标域更相关的部分。然后通过多种对齐损失实现了类别级别上的对齐。我们的方法在MSDA和MSPDA两个场景中的分类问题上都取得了领先。


CVPR 研究组成员招募

智源社区作为一个以构建高度合作为目的的人工智能社区,为了推动人工智能领域,特别是计算机视觉领域研究者和从业者之间的交流和合作,我们将组织「CVPR 兴趣研究组」(以下简称“CVPR研究组”),以在线合作的方式来推动CVPR的交流工作。

CVPR研究组将以在读硕博为主要群体,围绕「CVPR」会议做(但不限于)以下工作,包括撰写论文解读文章、邀请并主持CVPR论文报告、专题讨论及领域进展分析等,以期促进大家的研究工作,并激发研究灵感,做出创新研究。

本研究组采用申请入组机制:

  • 详情可点击「阅读原文」查看

  • 报名请扫描二维码

(申请加入「CVPR 研究组」)

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值