语义分割
文章平均质量分 92
cztAI
系统 = 输入 + 输出
展开
-
论文:Pyramid Vision Transformer
Pyramid Vision Transformer: A Versatile Backbone for Dense Prediction without Convolutions金字塔视觉Transformer: 无卷积密集预测的通用主干PVTv1:https://arxiv.org/abs/2102.12122代码:https://github.com/whai362/PVTPVTv2:https://arxiv.org/abs/2106.13797代码:https://github.com/原创 2021-07-25 11:51:03 · 1698 阅读 · 0 评论 -
论文:Mask R-CNN
论文:https://arxiv.org/abs/1703.06870代码:原配、pytorch 1、pytorch 2更多 目标检测Faster R-CNNFaster R-CNN 包括两个阶段:第一阶段:称为区域提议网络(RPN),提出候选目标边界框。第二阶段:本质上是Fast R-CNN,使用 RoIPool 从每个候选框中提取特征,并进行分类和边界框回归。这两个阶段使用的特征可以共享,以更快地进行推断。架构Mask R-CNN 在概念上很简单:Faster R-CNN对每个原创 2021-07-03 08:47:35 · 991 阅读 · 1 评论 -
论文:RCNN
Rich feature hierarchies for accurate object detection and semantic segmentation论文:https://arxiv.org/abs/1311.2524原创 2021-06-30 18:56:12 · 513 阅读 · 0 评论 -
论文:Attention is all you need
论文:https://arxiv.org/abs/1706.03762自注意力,有时也被称为内注意,是一种注意机制,将单个序列的不同位置联系起来,以计算该序列的表示。架构编码器(左半部分)和解码器(右半部分)左半部分的编码器一共有N = 6个子编码器,图中仅显示一个。每一个子编码器都有两层。一层是Multi-Head Attention (多头自注意机构),另一层是 Feed Forward(全连接的前馈网络)。在这两层都使用一个恒等映射(残差结构),然后进行层归一化。每一层的输出表示为原创 2021-06-23 00:07:56 · 1948 阅读 · 1 评论 -
论文:NesT (Aggregating Nested Transformers)
Aggregating Nested Transformers论文:https://arxiv.org/abs/2105.12723原创 2021-06-30 01:11:26 · 1308 阅读 · 2 评论 -
论文:Swin Transformer
Swin Transformer: Hierarchical Vision Transformer using Shifted Windows论文:https://arxiv.org/abs/2103.14030代码:语义分割、图像分类、目标检测原创 2021-06-29 06:17:50 · 1274 阅读 · 1 评论 -
论文:deeplab v3+(语义分割)
论文:https://arxiv.org/abs/1802.02611v1原创 2021-06-28 08:07:42 · 542 阅读 · 1 评论 -
论文:deeplab v3(语义分割)
用于密集特征提取的Atrous卷积深度卷积神经网络(DCNNs)[50]以完全卷积的方式部署[77,60]已经证明在语义分割任务中是有效的。然而,在这些网络的连续层上,max-pooling和striding的重复组合显著降低了生成的特征图的空间分辨率,在最近的dcnn中,每个方向的分辨率通常为32倍[47,78,32]。反卷积层(或转置卷积)[92,60,64,3,71,68]被用来恢复空间分辨率。相反,我们提倡使用“atrous卷积”,它最初是在[36]的“算法’ atrous”方案中为有效计算非抽.原创 2021-06-27 17:45:33 · 558 阅读 · 2 评论 -
论文:FCN(语义分割)
Fully Convolutional Networks for Semantic Segmentation论文:https://arxiv.org/pdf/1411.4038.pdf代码:从粗到细推理的下一步自然是对每个像素进行预测。以往的方法使用卷积神经网络进行语义分割,其中每个像素被标注为其外围对象或区域的类别,但这种方法存在缺陷。我们表明,一个全卷积网络(FCN),训练的端到端,像素到像素的语义分割超过了先进的没有进一步的机器。据我们所知,这是第一次训练端到端FCNs(1)进行像素预测和(2原创 2021-06-26 21:09:36 · 183 阅读 · 0 评论 -
论文:SETR(Transformer 语义分割)
摘要最近的语义分割方法采用全卷积网络(FCN)与编码器解码器的架构。编码器逐步降低空间分辨率,学习更抽象/语义视觉概念更大的接受域。由于上下文建模对分割至关重要,最近的研究集中在增加接受域,通过扩张/收缩的回旋或插入注意模块。然而,基于编码器-解码器的FCN架构保持不变。在本文中,我们的目的是提供一个替代的视角,处理语义切分的序列到序列的预测任务。具体来说,我们部署了一个纯转换器(即,没有卷积和分辨率降低)来将图像编码为一系列补丁。通过在转换器的每一层建模全局上下文,这个编码器可以与一个简单的解码器结合,原创 2021-06-19 18:12:56 · 3733 阅读 · 0 评论