这是IJCAI-17年的一篇关于共显著性检测的论文,它以一组图片一组图片为输出,通过端到端的FCN获取其协同显著目标。
该方法通过学习基于卷积神经网络的语义感知图像表示来获取群体交互信息,并自适应地学习群体特征以实现共同显著性检测。此外,该方法发现了群体特征表示与单幅图像个体特征表示之间的协作和交互关系,并将其建模在协作学习框架中。最后,我们建立了统一的端到端深度学习方案,共同优化了群体特征表示学习和协同学习的过程,得到了更加可靠和鲁棒的共同显著性检测结果。
之前的方法大多将计算图像内显著性和图相间显著性这两者分离。通常,单独计算图像内和图像间的显著性无法很好地捕获每组图像之间的内在语义交互信息,这对协同显著性检测质量至关重要。
我们设计的网络是完全卷积的,这使它充分受益于图像中像素之间的局部关系,它也被设计得足够深,有一个大的接受场。该网络将图像的语义特征提取出来,然后将其分为两个分支。也就是说,一个分支单独处理每个图像,另一个考虑所有图像组,分支稍后合并。这使得网络不仅可以从单个图像属性中学习特征,还可以从组内属性中学习特征,利用图像之间共享和独特的信息,从而生成精确的共显著性地图。我们的深度模型采用数据驱动的学习管道来捕获图像组内部的协作和一致性,并进行端到端训练。