【论文笔记】CVPR2022:Anomaly Detection via Reverse Distillation From One-Class Embedding

CVPR2022:Anomaly Detection via Reverse Distillation From One-Class Embedding

本文提出了一种由教师编码器和学生解码器组成的新颖T-S模型:“逆向蒸馏”(Reverse Distillation)。与之前的知识蒸馏模型不同,学生网络不是直接接收原始图像,而是将教师模型的单类嵌入(One Class Embedding)作为输入,并旨在恢复教师的多尺度表示。

一句话总结,提出reverse distillation,将编解码思想与知识蒸馏结合。

背景

基于KD的方法假设学生在训练期间只处理正常样本,所以当查询是异常时,它可能会生成与教师不同的表示。

论文指出,由于(1)师生网络具有相似的或相同的架构(即非区分滤波器)和(2)T-S模型在知识传输/蒸馏期间具有相同的数据流,假设并非总是成立。

网络简介

在这里插入图片描述

反向蒸馏由异构体系结构组成:一个教师编码器和一个学生解码器。其次,学生解码器不直接将原始数据同时提供给T-S模型

这种设计有两个主要优点:

i)非相似结构。可以将教师编码器视为下采样滤波器,将学生解码器视为上采样滤波器。 “反向结构”避免了无法区分的滤波器引起的混淆。ii)紧凑嵌入。馈送到学生解码器的低维嵌入作为正常模式恢复的信息瓶颈层(bottleneck)。异常特征可以看作是正常模式上的扰动。紧凑的嵌入有助于防止这种不寻常的扰动传播到学生模型,并因此提高了T-S模型在异常上的表示差异。

方法

网络由一个固定的预训练教师编码器E,一个可训练的一类瓶颈嵌入模块和一个学生解码器D组成:

教师E提取多尺度表示。训练学生D从瓶颈嵌入(bottleneck embedding)中恢复特征。在测试中,教师E提取的表示可以捕获异常特征。然而,学生解码器D无法从相应的嵌入中重构这些异常特征。学生和教师表示的相似性低则表明高异常分数。

在这里插入图片描述

反向蒸馏

学生解码器与教师编码器相比是对称但相反的。相反有助于消除学生网络对于异常的响应,对称使得它与教师网络维度相同。

M k ( h , w ) = 1 − ( f E k ( h , w ) ) T ⋅ f D k ( h , w ) ∥ f E k ( h , w ) ∥ ∥ f D k ( h , w ) ∥ M^k(h,w)=1-\frac{(f_E^k(h,w))^T\cdot f_D^k(h,w)}{\left\|f_E^k(h,w)\right\|\left\|f_D^k(h,w)\right\|} Mk(h,w)=1 fEk(h,w) fDk(h,w) (fEk(h,w))TfDk(h,w)

异常图 M k ( h , w ) M^k(h,w) Mk(h,w) 由上式得到,其中 f E k ( h , w ) f_E^k(h,w) fEk(h,w) f D k ( h , w ) f_D^k(h,w) fDk(h,w) 分别代表encoder和decoder的第 k k k 层。

损失函数

L K D = ∑ k = 1 K { 1 H k W k ∑ h = 1 H k ∑ w = 1 W k M k ( h , w ) } \mathcal{L}_{\mathcal{KD}}=\sum_{k=1}^K\left\{\frac{1}{H_kW_k}\sum_{h=1}^{H_k}\sum_{w=1}^{W_k}M^k(h,w)\right\} LKD=k=1K{HkWk1h=1Hkw=1WkMk(h,w)}

OCBE

KD中的教师模型最后一层如果直接输入给学生网络,那么其中具有高自由度和冗余的特征不利于学生只学习正常特征。其次,最后一层富含语义信息,直接馈送给学生网络不利于低级别特征的重建。

单类瓶颈嵌入(OCBE)模块用于进一步压缩特征空间。OCBE模块包括一个多尺度特征融合(MFF)块(用于聚合特征)和一个单类嵌入(OCE)块(用于保留关键信息)。OCBE模块将多尺度模式进一步压缩到极低维空间,以进行下游正常表示重建。

首先通过3×3的卷积层来下采样浅层特征,然后进行BN和ReLU激活。然后再接1×1卷积、BN和ReLU。

在这里插入图片描述

实验

MVTec:AUROC:98.5

pixel AUROC:97.8;PRO:93.9

作者还进行了单类新颖性检测的实验,结果如下
在这里插入图片描述

引用\[1\]:在这个引用中,作者提到了一个名为"Anomaly Detection via Reverse Distillation from One-Class Embedding"的论文的非官方实现。引用\[2\]:在这个引用中,作者解释了反向蒸馏范式的工作原理。在反向蒸馏中,教师编码器的目标是提取全面的表示。为了避免T-S模型收敛到平凡解,教师编码器的所有参数在知识蒸馏过程中都被冻结。引用\[3\]:在这个引用中,作者详细介绍了他们提出的反向蒸馏方法。反向蒸馏使用了一个异质结构的T-S模型,由教师编码器和学生解码器组成。学生解码器不直接将原始数据输入T-S模型,而是使用低维嵌入作为输入,目标是通过恢复教师模型在不同尺度上的表示来模仿教师的行为。反向蒸馏的优点包括非相似性结构和紧凑性嵌入,这些优点有助于提高T-S模型对异常现象的表示差异。 所以,反向蒸馏是一种用于异常检测的知识蒸馏范式,其中教师编码器和学生解码器组成了一个异质结构的T-S模型,通过恢复教师模型在不同尺度上的表示来模仿教师的行为。这种方法具有非相似性结构和紧凑性嵌入的优点,可以提高T-S模型对异常现象的表示差异。 #### 引用[.reference_title] - *1* *2* *3* [[2022CVPR]Anomaly Detection via Reverse Distillation from One-Class Embedding翻译](https://blog.csdn.net/Vincent_Tong_/article/details/130439663)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值