loss低但精确度低_无监督域适应在语义分割中的应用:熵loss

今天介绍一篇 CVPR 2019论文:

ADVENT: Adversarial Entropy Minimization for Domain Adaptation in Semantic Segmentation

域适应在语义分割中的应用,主要方法是最小化熵


概览

问题:在语义分割领域,利用源域有标签的数据,解决目标域无标签的问题。

方法:引入熵loss,降低目标域的熵。

动机

92f5e77588029b1bf0a8b7c511ff18ee.png

左上角是源域的语义分割图。我们利用源域的数据(有充足的标记好的数据)可以训练一个准确率很高的语义分割网络。但是目标域没有标签,我们如果直接将目标域的图片输入到源域的网络中,会得到第2行第1列的图像。我们可以看到路这个类分得很不好。

作者观察到:源域上的监督学习训练出来的卷积神经网络模型,在与源域相似的图片上预测出来的语义分割图是低熵。而在目标域上的预测图则是高熵。如下图所示。左边是语义分割图,右边计算整个图熵值结果的可视化。

源域中的预测熵图(prediction entropy maps)像是边缘检测:在边缘部分有很高的响应值。

而在目标域,预测熵图并不是这么明显。语义分割图中有很多噪声,会造成额外的熵增。

由此,

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值