【阅读笔记】《Catching Both Gray and Black Swans: Open-set Supervised Anomaly Detection》

Catching Both Gray and Black Swans: Open-set Supervised Anomaly Detection



介绍

  传统缺陷检测时,所用的训练样本都是无缺陷的正常样本,但是在某些情况下也能收集到少量的缺陷样本,直接把这些缺陷样本丢弃未免有些浪费,毕竟这些样本中蕴含着真实存在的缺陷特征,若将此类缺陷样本纳入训练,或许当网络再次遇到类似的缺陷时能够更好地分割。
  本论文所提出的一种多头网络就是用于解决上述问题,充分利用可见异常,同时不会造成严重的过拟合现象。
  论文中的两种天鹅:黑天鹅与灰天鹅,灰天鹅象征着可见异常(seen anomaly),即训练集中的已知异常样本;黑天鹅象征着不可见异常(unseen anomaly),即网络未来测试中可能遇到的各式各样的异常类型。

论文地址:https://arxiv.org/pdf/2203.14506.pdf
官方代码:https://github.com/choubo/DRA


DAR多头网络

  论文中所提出了一种DAR多头网络,整个网络分为正常头(Normality learning head)、伪异常头(Pseudo anomaly)、可见异常头(Seen anomaly)和潜在异常头(Latent residual anomaly),每个头分开训练,训练不同的内容,得到每个头的异常分数,然后组合起来即可知道某样本是否为异常样本。

1.特征提取(feature extractor)

  在此之前,为了获取不同感受野的信息,对原图进行不用程度的下采样,分别进行之后的操作。
  本实验中使用的特征提取器依旧为预训练的resnet18网络,将其conv5_x层输出作为提取出的特征信息。

2.正常头(holistic head)

  正常头中所要训练的目标是对正常样本的分类,即score越接近1,是正常样本的概率越大,在训练时将所有image送入该头中。holistic head的网络结构也十分简单,相当于一个普通二分类网络的最后几层,将feature extractor提取出的feature maps平均池,而后通过两层全连接层获得正常分数normal scores。

class HolisticHead(nn.Module):
    def __init__(self, in_dim, dropout=0):
        super(HolisticHead, self).__init__()
        self.fc1 = nn.Linear(in_dim, 256)
        self.fc2 = nn.Linear(256, 1)
        self.drop = nn.Dropout(dropout)

    def forward(self, x):
        x = F.adaptive_avg_pool2d(x, (1, 1))
        x = x.view(x.size(0), -1)
        x = self.drop(F.relu(self.fc1(x)))
        x = self.fc2(x)
        return torch.abs(x)

3.可见异常头(seen head)

  可见异常为训练集中包含的异常样本,在训练时Label=1,将可见异常与正常样本一并送入该头中,通过一个普通的卷积层得到feature maps各个channel的异常分数,使用Top-K选取其中异常分数较大的K个进行平均,得到该头的异常分数anomaly score,异常分数越接近1,该image是异常的概率越大。

class PlainHead(nn.Module):
    def __init__(self, in_dim, topk_rate=0.1):
        super(PlainHead, self).__init__()
        self.scoring = nn.Conv2d(in_channels=in_dim, out_channels=1, kernel_size=1, padding=0)
        self.topk_rate = topk_rate

    def forward(self, x):
        x = self.scoring(x)
        x = x.view(int(x.size(0)), -1)
        topk = max(int(x.size(1) * self.topk_rate), 1)
        x = torch.topk(torch.abs(x), topk, dim=1)[0]
        x = torch.mean(x, dim=1).view(-1, 1)
        return x

4.伪异常头(pseudo head)

  所谓伪异常,即使用数据增强的方法仿真出一些未来可能出现的unseen anomaly,论文中使用CutMix方法实现数据增强,CutMix分为Cut与Mix两个步骤,Cut就是将图片的一部分区域剪切掉,Mix就是在剪切掉的区域中随机填充其他image的区域像素值。伪异常头与上述的可见异常头使用相同的网络结构,伪异常Label=2。
在这里插入图片描述

5.潜在异常头(composite head)

  未来可能出现的那些异常与seen anomaly几乎无共同点,与normal samples仅有很少的不同处,只用异常本身的特征很难检测出来的,但在高阶复合特征空间中很容易被检测出来,复合特征具有更强的可分辨性。
在这里插入图片描述
  首先,从normal samples中随机抽取的一小部分图像,计算其feature maps的平均值获得可供参考的正常特征图。
在这里插入图片描述
  然后相减获得标识异常与正常区别的残差特征图。

在这里插入图片描述

class CompositeHead(PlainHead):
    def __init__(self, in_dim, topk=0.1):
        super(CompositeHead, self).__init__(in_dim, topk)
        self.conv = nn.Sequential(nn.Conv2d(in_dim, in_dim, 3, padding=1),
                                  nn.BatchNorm2d(in_dim),
                                  nn.ReLU())

    def forward(self, x, ref):
        ref = torch.mean(ref, dim=0).repeat([x.size(0), 1, 1, 1])
        x = ref - x
        x = self.conv(x)
        x = super().forward(x)
        return x

训练过程

  训练过程中,由四个head共同训练,并且每个head参数不共享、独立进行优化。损失函数使用deviation loss,比cross entropy loss或focal loss更稳定、性能更好。将所有abnormal head分数相加,减去normal head的分数即可得到异常分数,通过该异常分数来判断一张图片是否存在异常。
  

  关于deviation loss,首先使用Z-score定义异常样本与正常样本异常分数的偏差(μ和σ在实验中为标准正态分布)
在这里插入图片描述

  然后定义loss:
在这里插入图片描述

  当样本异常时,y=1,loss为0和a-dev中较大的一项,即pred尽可能大
  当样本正常时,y=0,loss为abs(dev),即pred尽可能小


总结

  经过测试,该DAR网络在MVTec AD数据集上整体表现良好,但依旧存在某些问题,如对cable样本的poke insulation和cable swap缺陷的检测表现不佳…

  • 15
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值