![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
缺陷检测
文章平均质量分 95
各类论文及代码
洋芋焖土豆
一定要多写
展开
-
论文与代码分析|| EfficientAD: Accurate Visual Anomaly Detection at Millisecond-Level Latencies
在标准的S-T框架中,教师在ImageNet上进行预训练,学生没有接受关于该预训练数据集的培训,而只接受了关于的正常图像训练。因此,引入了训练损失,与Online Hard Example Mining类似,其将学生的loss限制在图像中最相关的部分,提出了hard feature loss,它只使用损失最大的输出元素进行反向传播。此外,这种轻量级的师生方法对缺乏以前方法所使用的技术来提高异常检测性能,如合多个教师和学生,使用来自层的金字塔的特征,以及使用学生和教师网络之间的架构不对称。原创 2024-07-16 16:19:33 · 928 阅读 · 0 评论 -
SegAD源码分析 | Supervised Anomaly Detection for Complex Industrial Images
是单独训练的,使用完整训练集的 80%(对于 VAD,包括 1600 个良好部分和 800 个坏部分),以确保该模型的训练集和 SegAD 的训练集不完全重叠。下一个阶段是在 SegAD 中训练最终的BRF分类器,这需要使用良好和坏的图像,在某些情况下,坏图像可以用人工缺陷替代,如表 2 所示。需要注意的重要一点是,只要已经有其他模型可用,训练 SegAD 是非常快速的。,第二个子集用于训练 BRF 分类器。正如在第 5 节中将详细阐述的那样,分割图可以是静态的,也可以由分割模型生成,具体取决于数据集。原创 2024-06-17 17:22:36 · 536 阅读 · 0 评论 -
PatchCore代码详解 | Towards Total Recall in Industrial Anomaly Detection
在代码实现中,没有使用到公式7。然后通过自适应平均池化进行特征聚合,即fagg:训练模型输出feature map上的每个位置(h, w),都得到一个预先设定维度 d= 1024的单一表示,这样这样layer2、layer3的聚合特征[(1568, 512, 3, 3), (1568, 1024, 3, 3)]经过预处理,即分别经过自适应均值池化然后stack一起得到 (1568,2,1024)的输出特征。最后得到第i个test的热力图(196,224,224)->(i,224,224),原创 2024-06-17 11:01:27 · 616 阅读 · 0 评论 -
PaDiM代码详解 | PaDiM: a Patch Distribution Modeling Framework for Anomaly Detection and Localization
M(Xij)可以解释为嵌入xij的测试块与学习分布N(µij,Σij)之间的距离,马氏距离实际上是欧氏距离在多变量下的“加强版”,用于测量点(向量)与分布之间的距离。生成的补丁嵌入向量(100,768,56,56)可能携带冗余信息,文章认为随机选择几个维度比经典的主成分分析(PCA)算法更有效,代码中d=550。为了学习位置 (i, j) 处的正常图像特征,我们首先从 N 张正常训练图像中计算出位置 (i, j) 处的embeding为。数据采用mvtec格式的数据,共有100张训练图片。原创 2024-06-17 11:05:33 · 653 阅读 · 0 评论 -
Uninformed Students: Student-Teacher Anomaly Detection 笔记 | 待补充
我们提出了一种新的框架,用于解决自然图像中无监督异常分割的挑战性问题。从中,可以通过两种方式获得异常度量: 首先,我们建议计算混合物的平均值 μ(r,c) 相对于教师的代理标签的回归误差: 我们提出了一个新框架,用于解决自然图像中无监督异常分割的挑战性问题。采用多个随机初始化的学生网络和一个教师网络,这样的在无异常图像学生网络的embedding就会相似,异常图像由于students是随机初始化的,且teacher并没有在异常样本上教过他们,所以在students之间embedding差异也会比较大。原创 2024-06-17 11:10:28 · 909 阅读 · 0 评论