transformers
文章平均质量分 96
盏云
这个作者很懒,什么都没留下…
展开
-
【深度学习】语义分割:论文阅读:(2021-12)Mask2Former
论文:Masked-attention Mask Transformer for Universal Image Segmentation代码:官方-代码代码视频:b站论文讲解笔记参考:翻译版Mask2Former在MaskFormer的基础上,本文的改进呢**主要是mask attention还有high-resolution features,**本质上是一个金字塔,剩下的一些关于训练上的还有optimization上改进呢,能够提高训练速度masked attention我们知道dec原创 2022-06-04 11:23:58 · 8519 阅读 · 1 评论 -
【深度学习】语义分割:论文阅读(NeurIPS 2021)MaskFormer: per-pixel classification is not all you need
目录详情知识补充语义分割实例分割动机Related WorksPer-pixel classification formulationMask classification formulationMaskFormerPixel-level moduleTransformer moduleSegmentation module掩膜分类推理语义推理详情论文:Per-Pixel Classification is Not All You Need for Semantic Segmentation / Mas原创 2022-06-01 19:26:22 · 5926 阅读 · 1 评论 -
【深度学习】语义分割:论文阅读:(CVPR 2022) MPViT(CNN+Transformer):用于密集预测的多路径视觉Transformer
这里写目录标题0详情1摘要2 主要工作3 网络结构3.1 Conv-stem3.2 Multi-Scale Patch Embedding3.3 Multi-path Transformer3.3.1 多路径Transformer和局部特征卷积CoaT的因素分解自注意深度可分离卷积3.3.2Global-to-Local Feature Interaction4 实验- Semantic segmentation5总结0详情论文:MPViT : Multi-Path Vision Transformer原创 2022-05-31 15:41:13 · 9621 阅读 · 2 评论 -
【深度学习】语义分割:论文阅读(没太懂):(2022-1)Lawin Transformer:大窗口注意力改进多尺度表示的语义分割
目录详情详情论文代码原创 2022-05-19 19:38:25 · 2727 阅读 · 2 评论 -
【深度学习】(ICCV-2021)PVT-金字塔 Vision Transformer及PVT_V2
目录详情详情名称:Pyramid Vision Transformer: A Versatile Backbone for Dense Prediction without Convolutions论文:原文代码:官方代码笔记参考:1.语义分割中的Transformer(第三篇):PVT — 用于密集预测任务的金字塔 Vision Transformer...原创 2022-05-17 20:02:32 · 8921 阅读 · 5 评论 -
【深度学习】语义分割-论文阅读:( NeurIPS 2021 )SegFormer
这里写目录标题0.详情1.动机2. 改进点3.相关工作4. Method4.1 Hierarchical Transformer Encoder4.1.1 分层特性表示(Hierarchical Feature Representation)4.1.2 重叠合并(Overlapped Patch Merging)4.1.3 自注意机制(Efficient Self-Attention)4.1.4 混合前馈网络(Mix-FFN)4.2 Lightweight ALL-MLP DecoderALL-MLP解码结原创 2022-04-26 11:28:30 · 3746 阅读 · 0 评论 -
【深度学习】语义分割-论文阅读:( CVPR 2021)SETR:Rethinking Semantic Segmentation from a Sequence-to-Sequence Perspe
这里写目录标题详情详情名称:Rethinking Semantic Segmentation from a Sequence-to-Sequence Perspective with Transformers单位:复旦, 牛津大学, 萨里大学, 腾讯优图, Facebook论文:论文代码:代码原创 2022-04-23 12:06:45 · 6142 阅读 · 0 评论 -
【深度学习】论文阅读:(ICCV-2021))Swin Transformer
这里写目录标题论文详情VIT缺点改进点核心思想整体结构名称解释 Window、Patch、Token与vit区别结构过程Patch EmbeddingBasicLayerPatch MergingSwin Transform Block==Window Attention==Shifted Window Attention总结论文详情名称:Swin Transformer: Hierarchical Vision Transformer using Shifted Windows地址:原论文代码:原创 2022-03-17 19:39:22 · 7334 阅读 · 0 评论