摘要:提出显著性检测的新框架 优势:(1由于利用残差U行快,获取不同尺度的混合上下文信息(2增加框架深度的同时并未显著的增加网络的计算资源。框架不依赖其他backbone 网络,从头开始训练
GitHub :https://github.com/NathanUA/U-2-Net.
1、介绍
显著性检测目的分割出视觉上更吸引的物体,由于cnn的发展,显著性目标检测领域发展迅速,存在一些挑战需要解决
指出常见SOD使用backbone such as Alexnet [17], VGG [35], ResNet [12], ResNeXt
[44], DenseNet [15], etc,这些主干网络用于图像分类,其抽取语义信息并非局部细节和全局对比信息;另外其需要预训练imgnet 数据,可能存在和目标数据集的分别不一样问题,
灵感启发:This leads to our first question: can we design a new network for SOD, that allows training from scratch and achieves comparable or better performance than those based on existing pre-trained backbones?
常见的框架,添加特征聚合模块过于复杂,更深的层导致高分辨率特征图的丢失,深度模型导致内存和计算资源过大消耗,
提问:Hence, our follow-up question is: can we go deeper while maintaining high resolution feature maps, at a low
memory and computation cost?
U2