论文简要 :
- 本文提出了一种用于无监督夜间语义分割的单阶段域自适应网络(DANNet),通过对白天图像和粗略对齐的白天-夜晚图像对进行对抗训练,利用像素级预测作为伪监督来分割夜晚图像,并设计了重新加权策略来处理对齐不准确和白天图像错误预测引起的不准确性,并提高小物体的预测准确性。实验证明,DANNet在夜间语义分割方面取得了最先进的性能。
背景信息:
- 论文背景:语义分割是将给定图像的每个像素标记为对象类别的基本计算机视觉任务,在自动驾驶、医学成像和人体解析等许多应用中起着重要作用。然而,夜间图像的语义分割比白天图像更具挑战性,因为夜间图像存在照明不足和人工标注困难等问题。
- 过去方案:过去的域自适应方法通常需要训练多个模型或进行图像转换,以在白天和夜间之间进行适应。然而,这些方法耗时且效率低下,并且无法很好地处理白天和夜间图像之间的适应差距。
- 论文的Motivation:鉴于现有方法的局限性,本文旨在提出一种新的单阶段域自适应网络,用于解决夜间语义分割的问题。该网络通过对抗训练和像素级预测来实现无监督的夜间语义分割,并通过重新加权策略来处理对齐不准确和白天图像错误预测引起的不准确性,以及提高小物体的预测准确性。实验证明,该方法在夜间语义分割方面取得了最先进的性能。
方法:
-
a. 理论背景:
- 本文提出了一种名为DANNet的一阶域自适应网络,用于夜间语义分割。
- DANNet使用对抗训练方法,使用带标签的白天数据集和包含粗略对齐的白天-夜晚图像对的无标签数据集。
- 对于无标签的白天-夜晚图像对,DANNet使用白天图像上静态对象类别的像素级预测作为伪监督,对其对应的夜晚图像进行分割。
- DANNet采用重新加权策略来处理白天-夜晚图像对的错位和白天图像的错误预测,并提高小物体的预测准确性。
- DANNet不需要训练额外的白天-夜晚图像转换模型作为单独的预处理阶段。
-
b. 技术路线:
- 本文提出的DANNet在Dark Zurich和Nighttime Driving数据集上进行评估。
- Dark Zurich数据集包含通过GPS记录粗略对齐的无标签白天-夜晚场景图像对。
- Cityscapes数据集用作源域,用于适应Dark Zurich的白天(Dark Zurich-D)和夜晚(Dark Zurich-N)数据。
- 应用图像照明子网络来使不同域的图像的强度分布接近。
- 使用共享权重的语义分割网络对照亮图像进行预测。
- 在输出空间进行对抗学习,以确保不同域之间的布局接近。
- 设计重新加权策略来处理错位并提高小物体的预测准确性。
结果:
- 本文的DANNet在Dark Zurich和Nighttime Driving数据集上实现了夜间语义分割的最新性能。
- 特别设计的概率重新加权策略显著增强了小物体的分割。
- 消融研究验证了DANNet中每个组件的有效性