[异常检测]EXPLAINABLE DEEP ONE-CLASS CLASSIFICATION

[异常检测]EXPLAINABLE DEEP ONE-CLASS CLASSIFICATION

会议: 2021 ICLR
论文: https://openreview.net/forum?id=A5VV3UyIQz.
代码:https://github.com/liznerski/fcdd

创新点

因为用于异常检测的深度单分类方法学习映射将正常样本集中在特征空间而将异常样本映射出去。由于这样的变换是非线性的,所以很难去解释。于是这篇文章提出了全卷积数据描述(FCDD),是对DSVDD的一种修改,使变换后的样本本身对应于下采样的异常热力图。

1639373896137-c3eda355-38d3-4989-a832-a6f91efd4262.png

方法

通过FCN全卷积网络,图片被映射到$1 ∗ u ∗ v $的特征图。论文提到卷积层的一个重要性质就是特征图的一个像素只有关于输入的一个固定感受野,这样特征图的异常分数就可以映射回原图片的位置,保留了空间信息。

image-20211216215403677.png

该方法能够在训练同时给出异常的解释,同时仅使用少量异常样本能显著的提升模型性能。并且使用FCDD的可解释性证明了深度单类分类模型容易受到虚假的图像特征影响(Clever Hans effect)。

同Outlier Exposure的思想一样,文章发现仅使用少数样本作为标记了的异常样本也表现得很出色。此外,在没有任何已知异常的情况下,使用合成异常也是有效的。

FCDD

全卷积数据描述(FCDD),结合FCN和HSC提出了一种深度单分类方法,其中输出特征保留空间信息,同时也作为下采样异常热图。

FCDD目标函数应用Pseudo-Huber 损失函数在FCN的输出矩阵 A ( X ) = ( ϕ ( X ; W ) 2 + 1 − 1 ) A(X)=\left(\sqrt{\phi(X ; \mathcal{W})^{2}+1}-1\right) A(X)=(ϕ(X;W)2+1 1)

目标函数

min ⁡ W 1 n ∑ i = 1 n ( 1 − y i ) 1 u ⋅ v ∥ A ( X i ) ∥ 1 − y i log ⁡ ( 1 − exp ⁡ ( − 1 u ⋅ v ∥ A ( X i ) ∥ 1 ) ) . \min _{\mathcal{W}} \frac{1}{n} \sum_{i=1}^{n}\left(1-y_{i}\right) \frac{1}{u \cdot v}\left\|A\left(X_{i}\right)\right\|_{1}-y_{i} \log \left(1-\exp \left(-\frac{1}{u \cdot v}\left\|A\left(X_{i}\right)\right\|_{1}\right)\right) . Wminn1i=1n(1yi)uv1A(Xi)1yilog(1exp(uv1A(Xi)1)).

这里 ∥ A ( X ) ∥ 1 \|A(X)\|_{1} A(X)1 A ( X ) A(X) A(X)中所有元素的总和,它们都是正的。目标是最大化异常的 ∥ A ( X ) ∥ 1 \|A(X)\|_{1} A(X)1,最小化正常样本的 ∥ A ( X ) ∥ 1 \|A(X)\|_{1} A(X)1,因此使用 ∥ A ( X ) ∥ 1 \|A(X)\|_{1} A(X)1作为异常得分

Huber 损失函数

与平方误差损失相比,对数据中的游离点较不敏感 Huber损失函数经常用于回归问题,它是分段函数,公式如下:

1639375676263-77e427e8-8177-4232-af52-01ef6835f312.png

可以看出当残差(预测值与目标值的差值,即y-f(x) )很小的时候,损失函数为L2范数,残差大的时候,为L1范数的线性函数。该公式依赖于参数delta,delta越大,则两边的线性部分越陡峭。

L1、L2、Huber损失函数的对比图如下,其中Huber的delta取0.25、5两个值:

1639375667366-92cb7bf5-8809-469e-b573-a321197331ee.png

Pseudo-Huber

Huber loss 的一种平滑近似,保证各阶可导

1639376359351-214a306b-55af-450b-be62-d5f582ab9f56.png

同时对于需要全分辨率热图的情况,提供了一种基于感受野特性对低分辨率热图进行上采样的方法。

Heatmap Upsampling

因为论文的设定在试验阶段是没有ground-truth的,因此上采样部分的训练是无监督的,也就是无法直接训练一个deconvolutional 层所以设计了heatmap upsampling算法

1639663879781-091e6733-ece4-4165-bd70-61ea185a22b8.png

该算法基于feature map的每一个值都对应着原图的唯一一个感受野,并且在该感受野中,每个点对该输出的影响以一种高斯分布从感受野中心进行减弱(想象成一个卷积核的中心的是一个高斯分布的均值点,其他点随着距离下降)

实验

image-20211216220052115.png

参考

  • 1
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值