Backbone
文章平均质量分 95
球场书生
这个作者很懒,什么都没留下…
展开
-
CNN卷积神经网络之ConvNeXt
CNN卷积神经网络之ConvNeXt前言改进内容1 训练技巧2 宏观设计3 ResNeXt-ify4 Inverted Bottleneck5 Large Kernel Sizes67前言《A ConvNet for the 2020s》论文地址:https://arxiv.org/abs/2201.03545pytorch代码:https://github.com/facebookresearch/ConvNeXt最近Transfomer在CV领域大放异彩,颇有一种要碾压CNN的气势。但是作者觉原创 2022-02-18 16:50:13 · 7283 阅读 · 2 评论 -
Swin-Transformer
Swin-Transformer前言网络结构细节1.Patch Merging2.Windows Multi-head Self-Attention(W-MSA)3.Shifted Windows Multi-Head Self-Attention(SW-MSA)4.Relative Position Bias消融实验SOTA结果前言《Swin Transformer: Hierarchical Vision Transformer using Shifted Windows》论文地址:https:/原创 2022-02-16 22:48:34 · 5510 阅读 · 0 评论 -
Vision Transformer(ViT)及后续工作
Vision Transformer ViT前言Vision Transformer网络结构Embeding层EncoderMLP HeadHybrid网络结构实验结果前言《An Image is Worth 16x16 Words:Transformer for Image Recognition at Scale》论文地址:https://arxiv.org/pdf/2010.11929.pdfTransformer最开始是用于NLP的, Vision Transformer (ViT)借鉴该原创 2022-02-07 22:04:41 · 3355 阅读 · 0 评论