51-6 Vision Transformer ,ViT 论文精读

本文深入解读了Vision Transformer (ViT) 论文,揭示了如何将Transformer架构应用于计算机视觉任务,特别是图像识别。ViT在足够大的数据集上预训练后,可以与最佳卷积神经网络(CNN)相媲美,甚至在某些情况下超越。论文探讨了ViT如何处理遮挡、数据分布偏移和对抗性攻击等问题,展示了其优于CNN的特性。ViT通过将图像分割成patch并输入Transformer,实现了模型的高效扩展,但需要更多的训练资源。实验表明,Transformer在视觉任务上的扩展性优于CNN,尤其是在大规模数据集上。
摘要由CSDN通过智能技术生成

李沐(沐神)、朱毅讲得真的好,干货蛮多,值得认真读很多遍,甚至可以当成多模态大模型基础课程学习。

论文原文: An image is worth 16x16 words: transformers for image recognition at scale。

ViT取代了CNN,打通了CV和NLP之间的鸿沟,而且挖了一个更大的多模态的坑。ViT未来有可能真就是一个简洁、高效、通用的视觉骨干网络,而且可以完全不用任何标注信息。当拥有足够多的数据进行预训练的时候,ViT的表现就会超过CNN,突破transformer缺少归纳偏置的限制,可以在下游任务中获得较好的迁移效果。

如果说过去一年中在计算机视觉领域哪个工作的影响力最大,那应该非vision transformer莫属了,因为他挑战了自从2012年Alex提出以来,CNN卷积神经网络在计算机视觉领域里绝对统治的地位。它的结论

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

深圳季连AIgraphX

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值