SegFormer

SegFormer结合了Transformer和轻量级MLP解码器,实现语义分割。它采用无位置编码的分层Transformer编码器,避免了位置编码的缺点,同时使用MLP解码器融合不同层信息。实验显示,SegFormer在效率和效果上优于现有方法,且在多种数据集上表现出色。
摘要由CSDN通过智能技术生成

SegFormer: Simple and Efficient Design for Semantic Segmentation with Transformers

在这里插入图片描述

在这里插入图片描述

Abstract

方法

  • Transformers与轻量级多层感知器(MLP)统一起来

吸引人的特点

    1. 分层结构的transformers编码器,并且不需要位置编码
    • 从而避免了位置编码的内插。
      当测试分辨率与训练分辨率不同时,位置编码会导致性能下降。

      • 位置编码的缺点;
  • 2.避免使用复杂的解码器,MLP聚合了不同层的信息

    • 结合了局部和全局注意力来呈现强大的表征

效果

  • 网络更小,效果也佳

    • 定量评估数据集

      • Cityscapes validation set
      • Cityscapes-C
      • ADE20K

Code

  • github.com/NVlabs/SegFormer.

1 Introduction

开创性的工作

  • FCN

语义分割的两条主线

  • 设计主干

    • 主干的演变极大地推动了语义分割的性能边界
  • 结构化预测问题

    • 设计模块和操作,有效捕捉上下文信息

      • 代表性例子:空洞卷积,增加了感受野

transformer引入计算机视觉

  • ViT

    • 图像分类
  • SETR

    评论 2
    添加红包

    请填写红包祝福语或标题

    红包个数最小为10个

    红包金额最低5元

    当前余额3.43前往充值 >
    需支付:10.00
    成就一亿技术人!
    领取后你会自动成为博主和红包主的粉丝 规则
    hope_wisdom
    发出的红包
    实付
    使用余额支付
    点击重新获取
    扫码支付
    钱包余额 0

    抵扣说明:

    1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
    2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

    余额充值