Learning Memory-guided Normality for Anomaly Detection阅读笔记

Learning Memory-guided Normality for Anomaly Detection阅读笔记

Abstract

我们解决异常检测的问题,即检测视频序列中的异常事件。

传统上,异常检测方法,通过重建输入的视频帧来学习正常情况的模型,训练时没有异常样本,测试时使用重建误差来量化异常的程度。

这些方法的主要缺点就是没有考虑正常样本的多样性,CNNs的能力太强,对于输入是异常的视频帧样本,也能重建的像异常视频帧,从而导致重建误差较小,无法区分异常数据。为了解决这个问题,提出一种无监督的异常检测方法,该方法明确考虑了正常模式的多样性,同时降低了CNNs网络的表达能力。

为此,我们建议使用具有新更新方案的存储器模块,其中存储器中的项目记录正常数据的原型模式。我们还提出了新的特征紧凑性和分离损失来训练记忆,提高了记忆项目和从正常数据中深入学习的特征的辨别能力。

1 Introduction

过去十几年,视频异常序列中的异常事件检测引起极大关注,对于监视和故障系统尤其重要。

存在挑战:

  • 异常的种类很多,很难界定哪些类就是所谓的异常数据。
  • 异常数据标记困难,很少发生,数据量少

所以异常检测通常认为是一种无监督学习的问题,旨在学习一个没有异常样本的描述正态性的模型。(只学正常数据的分布)

正常方法,测试时,假设异常样本不能够被很好的重建,因为模型在训练阶段没有见过异常数据。

方案1: 使用基于CNN的自编码器[1, 17]

**缺点:**CNN提取能力太强,同时异常帧的CNN特征可能通过组合正常帧的特征进行重建[22, 8]。这种情况,异常帧有较低重建误差,分辨不出来。

[1]Y oshua Bengio, Pascal Lamblin, Dan Popovici, and Hugo Larochelle. Greedy layer-wise training of deep networks. In NIPS, 2007. 1, 2

[17] Diederik P Kingma and Max Welling. Auto-encoding variational bayes. arXiv preprint arXiv:1312.6114, 2013. 1, 2

[22]Wen Liu, Weixin Luo, Dongze Lian, and Shenghua Gao. Future frame prediction for anomaly detection–a new baseline. In CVPR, 2018. 1, 2, 3, 4, 6, 7

[8] Dong Gong, Lingqiao Liu, Vuong Le, Budhaditya Saha,
Moussa Reda Mansour, Svetha V enkatesh, and Anton
van den Hengel. Memorizing normality to detect anomaly: Memory-augmented deep autoencoder for unsupervised anomaly detection. In ICCV, 2019. 1, 3, 6, 7, 8

方案2: 针对CNN提取能力太强,[22]提出视频预测架构;最小化了预测的未来帧与其基本事实之间的差异

以上两种方案[1, 17, 22]的缺点: 不能直接检测异常[35],智能通过其他间接方式:如重建输入帧或者预测未来帧。针对这一个缺点,Deep SVDD[35]利用一类分类目标将正常数据映射到一个超球面。具体来说,它最小化了超球体的体积,使得正常样本被紧密地映射到球体的中心。但这并没有考虑正常样本的各种模式。

[35] Deep one-classification. In ICML, 2018. 2

本文考虑了正常数据的多样性。我们假设单个原型特征不足以代表正常数据的各种模式。在正常视频帧的特征空间中存在多个原型(即,特征的模式或质心)(图1)。

在这里插入图片描述

为实现这个想法,提出memory module。并且使用memory的输出特征来表示视频帧,减少了CNN的提取能力。

为了减少CNN特征的类内变化,我们提出了一种特征紧凑性损失,将正常视频帧的特征映射到memory中最近的项目,并鼓励它们靠近。

我们提出了一个特征分离损失,增大类间距离

我们还引入了一种更新策略,以防止memory在测试时记录异常样本的特征。为此,我们提出了一种加权规则分数,用于测量一个视频帧内存在多少异常,这样,只有当该帧被确定为正常帧时,项目才会被更新。

贡献:

  • 假设正常视频帧在特征空间中存在多个中心,提出memory module,来记录正常样本的一个分布
  • 我们提出特征紧凑性和分离性损失来训练记忆,确保记忆项目的多样性和辨别能力。提出memory的一个方案。
  • 取得目前最好的结果。同时进行了大量的消融实验。

2 Related work

Anomaly detection.

一些工作简单的将异常检测公式化为无监督学习问题,通过重建或者鉴别的方法来描述正常数据的分布正态性的模型。通过简单的表示学习方法,例如稀疏字典学习或者生成模型。但是这些方法通常无法捕捉图像和视频等高维数据的复杂分布。

过去十年,CNN在异常检测方面取得了显著进步。

许多异常检测方法利用重构模型[9,26,5,33],利用来自例如卷积AE (Conv-AE) [9],3D Conv-AE [50],递归神经网络(RNN) [29,26,25]和生成对抗网络(GAN) [33]的特征表示。但是CNN特征提取能力太强了,所以异常数据通常也能被重构出来。

所以提出了假设,视频中的异常帧不可预测。预测视频序列中的未来帧,然后和异常输入坐差值,计算异常。但是代价是需要光流信息。

Deep SVDD[35]利用一类分类目标将正常数据映射到一个超球面。而使用一类分类目标迫使异常样本落在球体之外。

总之,就是给CNN特征提取网络加约束,抑制特征提取能力。

我们用内存中的项目组合来重建或预测视频帧,而不是直接使用来自编码器的CNN特征,同时考虑正常数据的各种模式。

Memory networks.

LSTM可以捕获顺序数据中的长期依赖关系。但是记忆能力有限。

所以引入Memory网络,可以读写全局memory,能够比经典方法更好的执行记忆任务

3 Approach

222222

我们重建输入帧或预测未来的帧用于无监督的异常检测。预测和重建相同的网络架构和损失函数。

三部分构成:

编码器、memory module,和解码器。

编码器提取出来的特征被用来输入memory中检索正常模式并且更新memory。我们将聚集道德查询特征和memory items反馈到解码器,用于重构输入视频帧。我们使用重构、特征紧致性和特征分离损失来训练我们的模型。

我们计算输入帧与其重建之间的差异,以及查询特征与内存中最近项目之间的距离,以量化视频帧中异常的程度。

3.1 Network architecture
3.1.1 Encoder and decoder

利用广泛用于重建和未来帧预测任务的U-Net架构[34],

我们删除了编码器中的最后一批归一化层[12]和ReLU层[18],因为ReLU截断了负值,限制了不同的特征表示。相反,我们添加了一个L2归一化层,使特征具有共同的比例。在U-Net架构中跳过连接可能无法从视频帧中提取有用的特征,尤其是对于重建任务,并且我们的模型可能会学习复制重建的输入。

因此,我们删除了重建任务的跳过连接,同时保留它们以预测未来的帧。

[34] Olaf Ronneberger, Philipp Fischer, and Thomas Brox. U-Net: Convolutional networks for biomedical image segmentation. In MICCAI, 2015. 4

[12] Sergey Ioffe and Christian Szegedy. Batch normalization: Accelerating deep network training by reducing internal covariate shift. In ICML, 2015. 4

[18]Alex Krizhevsky, Ilya Sutskever, and Geoffrey E Hinton. ImageNet classification with deep convolutional neural networks. In NIPS, 2012. 4

编码器输入 I t I_t It特征,输出 H × W × C H\times W\times C H×W×C的查询图 q t q_t qt,使用 q K q_K qK K ∈ R C , ( k = 1 , . . . K ) , K = H × W K \in R^C ,(k = 1,... K), K=H\times W KRC,(k=1,...K),K=H×W。查询映射qt中大小为 1 × 1 × C 1 \times 1 \times C 1×1×C的单个查询。

3.1.2 Memory

(待续……)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值