自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 DASRSNet: Multitask Domain Adaptation for Super-Resolution-Aided Semantic Segmentation

代码暂未公开这篇论文还是比较有开创性的,应该是首次将图像超分和分割结合在一起的摘要我直接翻译论文的:无监督域适应(UDA)已成为遥感界跨域语义分割(SS)的重要技术,并取得了显着的成果。然而,当从高分辨率(HR)遥感图像转移到低分辨率(LR)图像时,现有的UDA框架总是无法分割LR目标图像,特别是对于小物体(例如汽车),由于严重的空间分辨率偏移问题。在本文中,为了提高UDA模型对LR目标图像和小物体的分割能力,我们提出了一种借助超分辨率(SR)的新型遥感图像SS多任务域适应网络(DASRSNet)。

2023-12-20 22:10:27 1129 1

原创 论文笔记:Multi-class Token Transformer for Weakly Supervised Semantic Segmentation

作者的思路可以在这张图上看出来,(a)传统的VIT网络只输入一个class token,输出的这个红蓝点矩阵实际上是softmax(q*k^T),输出的图像虽然有图像分割的意思,但是没有类别定位,就是根本不知道他是怎么定位到这个地方的。那么这是作者提出的MCTformer-V2模型,因为V1可以完美的与CAM结合,因此作者提出了V2版本,为什么兼容其实不难推导,生成的MCT attention和patchcam的维度是一样的,两者可以做到一个互补。这周看了2022年CVPR的一篇关于图像分割的论文。

2023-12-16 11:14:05 658

原创 论文笔记:ADVENT: Adversarial Entropy Minimization for Domain Adaptation in Semantic Segmentation

语义分割是许多计算机视觉任务的关键问题。虽然基于卷积神经网络的方法不断在不同的基准上打破新记录,但如何很好地推广到不同的测试环境仍然是一个重大挑战。在许多现实世界的应用中,训练域和测试域中的数据分布之间确实存在很大差距,这会导致运行时严重的性能损失。在这项工作中,我们解决了语义分割中无监督域适应的任务,其损失基于像素预测的熵。为此,我们提出了两种新颖的互补方法,分别使用(i)熵损失和(ii)对抗性损失。我们在两个具有挑战性的“合成-2-真实”设置1上展示了语义分割的最先进性能,并表明该方法也可用于检测。

2023-12-15 21:38:06 1149

原创 One Model Is Enough: Toward Multiclass Weakly Supervised Remote Sensing Image Semantic Segmentation

我首先介绍一下这个网络的大致流程:首先使用所提出来的CM来对样本进行筛选,衡量样本是否符合用来训练判别网络然后使用图像级别的数据集训练分类网络以生成CAM接着导出像素级伪掩膜和不确定性掩膜最后用伪掩膜对网络进行迭代训练,并通过不确定掩膜重新加权,减轻标签噪声的影响。

2023-12-14 21:52:37 1011

原创 论文笔记:MANet: Multi-Scale Aware-Relation Network for Semantic Segmentation in Aerial Scenes

废话不多说,这篇文章就目前航天遥感所面对的挑战:场景和物体尺度的剧烈变化,提出了自己的模型。遥感图像变化剧烈主要是因为航拍角度、航拍设备等等引起的,比如你无人机不可能每次拍照片都是一个角度吧,一张照片里面可能包含很多的场景如公园、工业区、湖泊等等,物体尺度就更好理解了,一张图像里面小车子和大楼就属于物体尺度变化太大。

2023-12-06 19:49:49 1199

原创 Simple and Efficient: A Semisupervised Learning Framework for Remote Sensing Image Semantic Seg

作者首先重新定义了传统自训练的范式,其中λ是一个需要小心选择的超参数但是λ的选择违背了我们所提出模型的精简性,因此作者对有标记的数据集重新采样,直至有标记数据集的数量Nl跟无标记Nu的一样,此时损失可以定义为:其中α是固定值,表示Nu与Nl的比率为什么要使NI和Nu接近呢?在半监督网络中,如果标记数据集远小于未标记数据集时,模型会更多的学习标记数据集的特点,从而忽略掉许多未标记数据集的特征,并且容易造成过拟合。其次,如果按传统的自训练范式的话,λ的值很难取,取不好可能会使模型更倾向标记数据的特征。

2023-12-04 19:41:31 994

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除