活动报名丨华南理工大学周靖凯:视觉表征的动态网络

本期青源LIVE第50期为线上活动

41db7e53251f8231b50c49e6522c8d50.png

青源LIVE第50期将于2022年9月28日(星期三)19:30-20:30线上召开,邀请了华南理工大学周靖凯博士带来学术报告,题目为《视觉表征的动态网络》。

在本次报告中周靖凯博士将介绍视觉表征中的动态网络,主要包含两个工作:Decoupled dynamic filter networks(论文链接见文末)和Enhanced Local Self-Attention(论文链接见文末),欢迎报名参会。

02932a9ebf1bdea50231923ca268433f.png

主讲人:周靖凯,华南理工大学博士,导师刘琼教授。博士期间他曾前往UCMerced 访学,师从MingHsuan Yang教授 和Google的Varun Jampani教授,曾在阿里达摩院跟随王丕超博士实习。他感兴趣的研究方向包括目标检测与动态网络的表征学习。

报告主题:视觉表征的动态网络

报告摘要:动态网络指的是根据输入动态的调整模型结构或参数,以实现自适应推理,其可以在不增加计算量的情况下显著增加模型容量。在本次报告中,周靖凯博士将介绍视觉表征中的动态网络,主要包含两个工作:1. Decoupled dynamic filter networks:卷积是CNN的基本模块。尽管它很常见,但标准卷积是内容无关的,限制了网络Inference时的灵活性。在16年,动态卷积被提出,其根据特征实时生成对应的卷积核。虽然动态卷积更加灵活,但其引入巨大的计算和存储开销,难以被应用于网络的每一层。本文提出解耦的动态卷积(DDF),打破动态卷积的使用限制,将其用于多个任务中的多种网络。2. Enhanced Local Self-Attention:近期Swin Transformer 主干网络在CV领域取得巨大成功,但研究发现Swin Transformer中LSA性能发挥受限,仅等效于DwConv。通过对DwConv、动态滤波器和LSA进行详尽的对比研究,本文指出相对位置嵌入和邻域注意力应用是限制LSA 性能的关键因素。在此基础上,进一步提出增强型局部自注意(Enhanced Local Self-Attention, ELSA),改善 Swin Transformer 主干网络性能。

论文地址

1. Decoupled dynamic filter networks:arxiv.org/abs/2104.14107

2. Enhanced Local Self-Attention:arxiv.org/abs/2112.12786

活动时间:9月28日(周三)19:30-20:30

活动形式:线上直播,扫描下方二维码报名

39d7fc1618109fb1693d829af7ae91c6.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值