SegFormer: Simple and Efficient Design for Semantic Segmenta

SegFormer是一种融合Transformer与轻量级MLP解码器的语义分割框架,表现出SOTA性能,优于多种现有网络。其特点包括无需位置编码的分层Transformer编码器和强大的MLP解码器设计,实现局部与全局注意力的结合。实验结果显示SegFormer在多个数据集上表现出高效率和优秀效果。
摘要由CSDN通过智能技术生成

前言

将 Transformer 与轻量级多层感知 (MLP) 解码器相结合,表现SOTA!性能优于SETR、Auto-Deeplab和OCRNet等网络,代码即将开源!

注1:文末附【视觉Transformer】交流群

想看更多CVPR 2021论文和开源项目可以点击:

CVPR2021-Papers-with-Code

SegFormer

SegFormer: Simple and Efficient Design for Semantic Segmentation with Transformers
在这里插入图片描述

  • 作者单位:香港大学, 南京大学, NVIDIA, Caltech
  • 代码:https://github.com/NVlabs/SegFormer
  • 论文:https://arxiv.org/abs/2105.15203

我们提出了 SegFormer,这是一种简单、高效但功能强大的语义分割框架,它将 Transformer 与轻量级多层感知 (MLP) 解码器相结合。

在这里插入图片描述

SegFormer 有两个吸引人的特性

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值