《AdaptSegNet:Learning to Adapt Structured Output Space for Semantic Segmentation》论文笔记

参考代码:AdaptSegNet

1. 概述

导读:这篇文章着力于解决模型未见过数据的适应性,一般来讲模型对于与训练集中数据类似的数据表现较好,但是对于未知场景的数据就表现较差了,这也是domain-adaptation需要解决的问题。这篇文章在分割任务下进行了研究,提出在output space(分割softmax输出)上使用GAN网络去拟合两种数据(合成数据与真实数据)分布,此外还提出使用多层GAN监督的形式优化特征的分布。

之前的一些domain adaptation的工作是在feature层次上进行的,但是在分割任务中就显得不是很适合了,这是由于分割任务中的特征编码了高维度的形状/纹理等信息,因而相当复杂,不易adapt。文章通过观察已知数据和未知数据的特点,观察到两种数据在分割结果上更加具有视觉上的一致性,因而在网络的输出(output space)上进行domain adaptation。下图表示的就是这种空间下的相似性:
在这里插入图片描述
文中将整个网络划分成两个部分:分割网络组成的生成器和判别网络。并提出了两个分布拟合策略:

  • 1)使用分割输出(softmax概率图)的结果去拟合两个数据的分布;
  • 2)使用多层数据(在多个特征上得到softmax output space)之后再使用GAN去拉近两个分布;

2. 方法设计

2.1 网络结构

文章的网络结构见下图所示:
在这里插入图片描述
在上图中可以看到文章的网络由两部分组成:分割网络构成的生成器 G G G与判别器 D i D_i Di,输入的真实图像与合成图像是 I t , I s ∈ R ( H ∗ W ∗ C ) I_t,I_s\in R^{(H*W*C)} It,IsR(HWC),之后得到两个图像的softmax分割概率输出 P t , P s P_t,P_s Pt,Ps,之后将这两个概率图输入到判别器网络 D i D_i Di拉近这两个数据的分布。

2.2 单层GAN结构

判别器的训练:
通过生成器得到的概率图为 P t , P s P_t,P_s Pt,Ps,其过程为 P = G

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
“你只需要90000个参数即可适应光:一款轻量级的Transformer” Light:一款轻量级的Transformer是指在模型参数数量较少的情况下,实现了对光照的适应能力。一般来说,Transformer模型通常需要巨大的参数数量来实现高质量的自然语言处理任务。然而,对于特定的任务,比如对光照的适应,研究人员最近提出了一种轻量级的Transformer模型,只需要90000个参数即可实现。 这个模型的轻量级设计主要集中在两个方面:模型架构和参数数量。首先,模型架构方面,轻量级Transformer采用了一种精简的结构,去掉了一些传统Transformer中的冗余模块。其次,在参数数量方面,研究人员通过对参数维度和层数进行有效的优化,实现了模型的轻量化。因此,这个轻量级Transformer仅需要90000个参数,就能够达到对光照的适应能力。 这个轻量级Transformer的适应光照的能力主要体现在两个方面:特征提取和模型自适应。首先,在特征提取方面,轻量级Transformer能够从输入的光照图像中提取出有效的特征表示,用于后续的任务处理。其次,在模型自适应方面,轻量级Transformer能够动态地学习并调整网络参数,从而更好地适应不同光照条件下的输入数据,提高模型的性能。 总之,通过轻量级的设计和精简的参数数量,这个仅需要90000个参数的轻量级Transformer模型能够有效地适应光照。这种模型设计的优势在于在保持良好性能的同时,减少了模型的复杂性和计算资源的需求,为光照相关任务的研究和应用提供了一种新的解决方案。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值