Out-of-Distribution Detection with Semantic Mismatch under Masking
Mismatch under Masking)
摘要
本文提出了一种名为MoodCat的新型分布之外(OOD)检测框架,用于图像分类器。MoodCat会对输入图像的随机部分进行遮盖,并使用生成模型根据分类结果将遮盖的图像合成为新的图像。然后,它计算原始图像和合成图像之间的语义差异以进行OOD检测。与现有的解决方案相比,MoodCat通过提出的遮盖和条件合成策略自然地学习了分布内数据的语义信息,这对于识别OOD至关重要。实验结果表明,MoodCat在OOD检测解决方案中的表现优于最先进的技术,优势明显。我们的代码可以在GitHub上找到 https://github.com/cure-lab/MOODCat.。
引言
深度神经网络(DNNs)的训练基于“封闭世界”假设[13, 24],即所有输入到模型的样本都被假定为遵循狭义的语义分布。然而,当在实际环境中部署时,模型会暴露在一个“开放世界”中,所有种类的输入并不一定遵循这种分布。这样的分布之外(OOD)的样本,其语义与训练数据有显著的不同,可能会误导DNN模型,并以极高的置信度生成错误的预测结果,从而妨碍DNN的安全部署[1, 7, 15, 16, 34]。
为了区分分布之外(OOD)的样本和分布内(In-D)的数据,有些人提出重用从原始DNN模型中提取的特征来区分[16, 27-29, 43, 44]。然而,这种特征