语义分割
weixin_43673376
这个作者很懒,什么都没留下…
展开
-
域自适应学习分割:ADVENT: Adversarial Entropy Minimization for Domain Adaptation in Semantic Segmentation
1、ADVENT: Adversarial Entropy Minimization for Domain Adaptation in Semantic Segmentation目的:这篇文章和前几篇一样的思想,都是用对抗学习的思想来做域自适应学习分割,一个系列的文章,前面几篇可以当做了解,这篇着重学习代码,以及熵最小化这种思想。从网络,训练过程多方面学习,尤其把网络训练起来。Adversarial Learning for Semi-Supervised Semantic SegmentationL原创 2020-08-19 17:22:55 · 2295 阅读 · 0 评论 -
论文域适应语义分割:Learning to Adapt Structured Output Space for Semantic Segmentation
1、Learning to Adapt Structured Output Space for Semantic Segmentation目的:结构输出自适应思想,多层对抗网络学习,了解带标注合成图像,如何在合成图像上训练,然后自适应到真实场景上。摘要:有监督的基于卷积神经网络语义分割方法需要依赖像素级的GT,对于未见过的图像泛化能力差(这体现在源域和目标域之间图像差异较大),此外,图像标注过程也是繁琐费力的事情,因此,需要找到域自适应的方法,将源域的label自适应到目标域中。本文基于语义分割,提出对原创 2020-08-19 10:38:24 · 1450 阅读 · 1 评论 -
论文:Adversarial Learning for Semi-Supervised Semantic Segmentation
1、Adversarial Learning for Semi-Supervised Semantic Segmentation目的:学习对抗训练是如何做语义分割,思想,做法,结论,和后续用这种思想的方法做对比1)先整体看下文章做了什么工作? 对抗的学习框架提高语义分割精度,在推理过程中,并不需要判别器,所以不会增加额外的计算。 半监督的方法,在训练时用了无标注的图像。2)整个过程是怎么做的?原创 2020-08-16 17:35:37 · 1315 阅读 · 0 评论 -
论文:Baby Steps Towards Few-Shot Learning with Multiple Semantics
1、Baby Steps Towards Few-Shot Learning with Multiple Semantics目的:记录下对文章的理解摘要:额外的语义信息可以显著提高少样本学习的能力,论文在少样本学习中结合了多种丰富的语义,这里语义信息包括类别标签、属性和自然语言描述等信息。论文在miniImageNet 和CUB few-shot benchmark做了丰富实验。下面几个问题可以理解讨论下:1、直观对语义信息的理解 以婴儿的物体识别原创 2020-08-14 23:53:55 · 444 阅读 · 0 评论 -
语义分割论文翻译:Large Kernel Matters —— Improve Semantic Segmentation by Global Convolutional Network
1、Large Kernel Matters —— Improve Semantic Segmentation by Global Convolutional Network摘要:小的卷积核堆叠比用一个大的卷积核计算更加高效。在语义分割领域,需要执行每个像素的预测分类,更大的卷积核(感受野更大),对于分类和定位任务来说,作用更大。所以提出GCN来解决语义分割的分类和定位的问题。文中还提出一个基于残差的边界细化模块。但从摘要可以看出主要有方面工作:用了更大感受野的信息,还有就是后处理(边界refine)。原创 2020-08-11 23:03:38 · 397 阅读 · 0 评论