MRN框架图
MRN和MFA技术概述
MRN有三个头部,分别由输入图像旋转0°,90°,180°构成。
MFA的主体由4个部分构成:
A. 异常生成
MRN异常生成的图并不是正常会出现的异常图,而是会生成理论上存在异常,但真实数据集中不会出现的异常图。
目的:
帮助学习在训练数据集中看不到的异常。
有两种创建异常的方法:1. 数据增强方法 2. 离群点暴露。
我们选择基于数据增强方法中的CutPaste方法:
- 在样本集中选择一张正常的图片。
- 从这张图片中剪一个小块。
- 将剪下来的小块旋转任意角度。
- 把旋转后小块放回图片的任意其他位置,让小块构成这张原本正常图片中的异常部分。
将剪下来的小块分别旋转0°,90°,180°后放回原图片的任意其他位置分别输入到MRN的三个头部。
B. 多头特征重建
- 这是一个创新,因为传统的U-net模型用一个头部接收输入的图像。
而我们的方法,引用三个头部来利用不同旋转角度照片的特征。 - 很多重建网络通常选择跳过连接的方法来做异常检测。这样浅层的编码特征可以直接传递到解码层。
注释:
跳过连接(Skip Connection)
跳过连接是一种在神经网络中用于加速训练和改善性能的技术。以下是通过一个具体例子来解释“跳过连接”的概念:
多层大楼建设的例子
假设我们正在建造一座多层的大楼,每一层都需要工人来搭建:
-
第一层工人:开始搭建第一层。
-
传统方法:如果没有跳过连接,每一层都必须等待前一层完成。这意味着第一层的工人必须先完成他们的工作,第二层的工人才能开始,依此类推。这个过程可能很慢。
-
跳过连接的应用:
- 当第一层的某些部分完成后,我们允许第二层的工人通过一个特殊的电梯(跳过连接)直接使用这些已经完成的部分。
- 第二层工人:立即开始在第二层工作,而不需要等待第一层完全完成。
- 同时进行:这样,第一层和第二层的工人可以几乎同时工作,提高了效率。
神经网络中的跳过连接
在神经网络中,跳过连接的作用类似于上述例子中的电梯:
- 第一层:网络的第一层接收输入数据并进行初步处理。
- 跳过连接:处理的结果通过一个直接的连接(电梯)传递给更高层。
- 第二层及以后:更高层的网络可以直接使用这些从低层传递过来的信息,与它们自己的处理结果结合,进行更复杂的处理。
图像处理中的应用
例如,在图像处理中:
- 一个卷积层可能会提取图像的边缘信息。
- 通过跳过连接,这些边缘信息可以直接传递到网络的深层。
- 在深层,它们可以与更复杂的特征结合,帮助网络更好地理解图像的整体结构。
这样,网络的训练可以更快,因为它可以同时利用不同层级的有用信息。
浅层的编码特征,解码层:
神经网络中的跳过连接:城堡报告的比喻
想象一下,你正在制作一份非常详细的报告,这份报告描述了一座城堡的每一个细节。
报告的开始部分(浅层)
在报告的开始部分,我们记录了城堡的基础信息:
- 颜色:城堡的外表颜色。
- 形状:城堡的大致轮廓和形状。
这些基础信息相当于神经网络中的“浅层编码特征”,它们捕捉了输入数据的基本属性,但还没有深入到更复杂的细节。
报告的深入(深层)
随着报告的深入,我们开始描述:
- 内部结构:城堡的房间布局和结构。
- 装饰细节:城堡内部的装饰和艺术品。
这相当于神经网络中的“解码层”,它们负责重建或解释输入数据的复杂结构。解码层通常位于网络的后半部分,使用前面层提取的信息来生成输出,比如重建一张图片或者识别图片中的物体。
跳过连接的应用
如果我们使用“跳过连接”,就可以把报告开始部分记录的基础信息(浅层编码特征)直接用在报告的最后部分(解码层):
- 好处:即使在处理复杂细节的时候,也不会丢失最初的那些重要信息。
- 神经网络中的体现:在重建图像或者进行高级特征识别时,网络仍然可以利用最初的简单特征,从而提高整体的性能。
用特别通俗的话说就是:
- 浅层编码特征:就像你第一次看到一张图片时,你注意到的颜色和形状等基本信息。
- 解码层:就像你在仔细研究这张图片,试图理解图片中的复杂场景和细节的过程。
- 跳过连接:就像你在研究细节时,仍然记得你最初看到的那些基本信息,这样你就可以更全面地理解整张图片。