【深度学习】卷积越大性能越强!RepLKNet一作在线分享:Transformer阴影下的超大卷积核复兴...

a13fa6f058841386f69646e2d47ecbf0.gif

你有多久没调过 kernel size 了?在下游任务上,Transformer 明显优于传统 CNN,这是因为 Transformer 本质更强吗?传统堆叠大量 3x3 卷积的 CNN 设计模式是最优的吗?

最近,清华大学、旷视科技等机构的一项工作表明,CNN 中的 kernel size 其实是一个非常重要但总是被人忽略的设计维度:在现代模型设计的加持下,卷积核越大越暴力,既涨点又高效,甚至大到 31x31 都非常 work。即便在大体量下游任务上,超大卷积核模型 RepLKNet 与 Swin 等 Transformer 相比,性能也更好或相当。

5f2101a238bf37c3f0ce84023a73097e.png

论文地址:https://arxiv.org/abs/2203.06717

基于超大卷积核,一些挑战传统认知的结论逐渐浮现,例如:深度小kernel模型的有效感受野其实不大,较浅的大kernel模型有效感受野非常大且更像人类(模型的预测主要根据物体的形状而非局部的纹理);Transformers 性能强悍可能不是因为Attention机制,而是因为大感受野……

3月24日19:00-20:00的论文分享中,机器之心邀请到了 RepLKNet 论文一作、清华大学博士生丁霄汉为我们带来更深入的解读。

fd77b5ad4b17693c7f7c31faf5de1aae.png


分享主题:RepLKNet:超大卷积核,大到31x31,卷积越大,性能越强

分享嘉宾:丁霄汉,清华大学博士生,旷视科技 Base Model 组实习生,研究方向为通用模型架构设计。在 CVPR 等会议上发表过一系列论文,提出了结构重参数化方法论及其若干应用,获得 GitHub 约 4000 Star。

分享摘要:RepLKNet 挑战了诸多行业内的传统认知,发现大到 31x31 的超大卷积核既涨点又高效,越大越涨点。归纳了在现代模型中应用大卷积的五条准则,如用小卷积核进行重参数化等。在此之上提出了一种新的架构 RepLKNet,在大模型和下游任务上取得了亮眼的结果,比 Swin 更好或相当,远超传统小 kernel 的 CNN。

分享时间:北京时间3月24日19:00-20:00

直播间:关注机动组视频号,北京时间3月24日开播。

013e000cfa054118ce112e6d8d71221c.png

交流群:本次直播设有 QA 环节,欢迎加入本次直播交流群探讨交流。

c8e43d570deacbb51d3136e35637b8d7.png

如群已超出人数限制,请添加机器之心小助手:syncedai2、syncedai3、syncedai4 或 syncedai5,备注「卷积」即可加入。


机器之心 · 机动组 

机动组是机器之心发起的人工智能技术社区,聚焦于学术研究与技术实践主题内容,为社区用户带来技术线上公开课、学术分享、技术实践、走近顶尖实验室等系列内容。机动组也将不定期举办线下学术交流会与组织人才服务、产业技术对接等活动,欢迎所有 AI 领域技术从业者加入。

  • 点击阅读原文,访问机动组官网,观看往期回顾;

  • 关注机动组服务号,获取每周直播预告。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值