Facebook提出DeiT:通过注意力来训练数据高效的图像Transformer和蒸馏

Facebook AI的研究提出DeiT,一种在ImageNet上仅用少量数据训练就能达到83.1% top-1精度的视觉Transformer。通过特定的注意力蒸馏策略,学生模型能从卷积教师模型中学习,实现高达84.4%的精度。代码和模型已开源,旨在促进社区研究。
摘要由CSDN通过智能技术生成

本视觉Transformers(86M参数)在ImageNet上达到83.1%的top-1精度,蒸馏版本高达84.4%!优于ViT、RegNet和ResNet等,代码刚刚开源!

注:文末附【Transformer】学习交流群
在这里插入图片描述
Training data-efficient image transformers & distillation through attention
在这里插入图片描述

  • 作者单位:Facebook AI, 索邦大学。注:其中一位也是DETR的作者之一
  • 代码(不到一天,已经近200 star了):https://github.com/facebookresearch/deit
  • 论文:https://arxiv.org/abs/2012.12877

最近,显示出纯粹基于注意力的神经网络可解决图像理解任务,例如图像分类。但是,这些视觉transformers使用昂贵的基础架构预先接受了数亿个图像的训练,从而限制了它们在更大的社区中的应用。关于视觉Transformer,推荐看一下这个最新综述:华为等提出视觉Transfor

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值