![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
可解释
文章平均质量分 76
Daft shiner
Fight for myself
展开
-
理解DNNs的特征表示
理解DNNs的特征表示原创 2022-03-15 17:25:30 · 2521 阅读 · 0 评论 -
常见攻击的t-SNE可视化
今天做实验顺便用t-SNE可视化了一下常见的对抗攻击方法。本文使用了CIFAR10数据集,且用了ResNet18模型,测试精度是94.78%,使用了FGSM、PGD、CW、JSMA、LocalSearch五种攻击方法,均来自advertorch包参数设置如下: if args.attack == 'FGSM': attack = GradientSignAttack(model, eps=0.3, targeted=False) elif args.attack == '原创 2022-01-12 13:44:46 · 2008 阅读 · 2 评论 -
CNN到底每层学到了什么?
本文仅针对CNN初学者,为了让其更好的了解CNN模型到底学到了什么,这里花了一点时间做了一个简单的可视化。大佬轻喷,这代码写的着实垃圾。模型和数据集本文使用的数据集是一个自制的10分类的ImageNet数据集,主要有以下10类:多谢伟大的ImageFolder,让我这种人能直接用scp1分钟制作数据集。关于模型本文的vgg模型也是自制的,因为后面要将所有的特征图可视化出来,所有通道数这里做了删减(为什么可以删减通道?详细可以去了解我的剪枝专栏,虽然现在不做剪枝了),用上面的数据集训练了一个Top-1原创 2021-09-26 22:59:48 · 586 阅读 · 0 评论 -
Distilling Holistic Knowledge with Graph Neural Networks论文解读
这是一篇ICCV2021的文章,提出了一种新的知识蒸馏方式(Holistic Knowledge Distillation)原文链接代码链接Figure 1为Individual、Relational、Holistic Knowledge Distillation三种不同的知识蒸馏方式的区别,由于本人对知识蒸馏的理解仅限于KL散度和蒸馏温度,因此这里不展开介绍这几种蒸馏方式。先验知识给定一个从K类数据集中采样得到的X={x1,x2,...xN}X=\{x_1,x_2,...x_N\}X={x1.原创 2021-09-19 15:25:43 · 1155 阅读 · 0 评论 -
Interpreting Image Classifiers by Generating Discrete Masks解读
闲话时间这是一篇Texas A&M University的Shuiwang Ji组发表在TPAMI2020的关于CNN可解释的文章,最近看到好多Ji组关于CNN、GCN的可解释方向的文章。ContributionsMethodology文章通过从模型的角度解释输入中的哪一部分对输入来说最重要,简而言之就是下图中的一只鸟(不知道是啥鸟),是鸟的这个部分,而不是背景对模型预测这张图片是鸟有关键作用。(PS:感觉有时候环境对一个生物的预测应该也是有一定影响的,毕竟生物都是有栖息地的,貌似扯着扯着原创 2021-09-03 20:14:27 · 428 阅读 · 0 评论