论文笔记
文章平均质量分 71
HarryXxc
这个作者很懒,什么都没留下…
展开
-
《论文笔记》Anomaly Detection via Reverse Distillation from One-Class Embedding
这是2022年的CVPR文章,作者提出了一个创新的知识蒸馏方案:反转知识蒸馏论文地址:https://arxiv.org/pdf/2201.10703v1.pdfMotivation论文针对传统的知识蒸馏的方案提出了一个问题:认为之前的方案容易阻碍异常表现的多样性传统的知识蒸馏teacher和student的网络架构很相似或者几乎相同而且teacher和student的输入流都是一样的针对这个我的理解是,因为T和S网络相似,尽管T是预训练好的,有一定的泛化能力,而S只是模仿了T学到了重.原创 2022-03-10 16:42:40 · 7835 阅读 · 7 评论 -
【论文笔记】Multiresolution Knowledge Distillation for Anomaly Detection
论文地址:https://arxiv.org/abs/2011.11108官方代码地址:https://github.com/Niousha12/Knowledge_Distillation_AD论文提出目前无监督的异常检测是现在比较流行的方法,对于异常检测,有两个问题是需要解决的:样本量小,如何通过现有的技术学到丰富的知识训练时使用的是正常样本,那最后如何区分正常和异常的样本本文作者选择了知识蒸馏的方法,但是不同于前人,作者认为前人使用知识蒸馏,只对最后一层进行蒸馏,而作者却使用了中间多.原创 2022-02-24 18:58:32 · 1490 阅读 · 1 评论 -
【论文笔记】Student-Teacher Feature Pyramid Matching for Anomaly Detection
原文地址:https://arxiv.org/pdf/2103.04257.pdf代码可以参考:https://paperswithcode.com/paper/student-teacher-feature-pyramid-matching-for核心:利用知识蒸馏的方式在MVTec AD数据集上进行异常检测论文中的teacher网络是在ImageNet上预训练的ResNet-18而student网络中的参数是随机初始化的在训练过程中,使得student逼近teacher论文利用两点来.原创 2022-02-23 20:39:33 · 2524 阅读 · 1 评论