![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
计算机视觉可解释性
文章平均质量分 67
游客26024
小样,被哥迷住啦?
展开
-
计算机视觉可解释性——将特征图的某一通道转化为一张图来可视化
本实验是将某一层的特征图中的某一通道对其进行的可视化,有两种方式一种是使用opencv;另一种是使用tensorboard。运行结果使用的resnet50作为backbone的效果更好,将layer1的特征中第一层通道(256中的第1层)转化为图像 layer1. channels1.将layer1的特征中第一层通道(256中的第1层)转化为图像,将代码改为: layer1. channels2. layer1. channels3.... layer1. channels10....若原创 2022-06-10 21:25:00 · 1153 阅读 · 1 评论 -
计算机视觉可解释性——CAM热力图的研读与复现
论文题目:Learning Deep Features for Discriminative Localization(Class Activation Mapping)论文地址:https://arxiv.org/pdf/1512.04150.pdf完整代码:https://github.com/metalbubble/CAM—————————————————————————————————论文研读问题:1.以前的全监督的CNN方法,会进行标签标注,导致浪费大量的人力与时间成本。2.全连接原创 2021-10-19 22:59:25 · 3123 阅读 · 7 评论 -
计算机视觉可解释性——绘制“伪”热力图
热力图是无锚检测定位很重要的知识点。本文实现的热力图并非无锚检测框中的广义热力图,其是直接调用了cv2中的伪彩色模式,来实现热力图的调用。——————————————————————————————实现流程:1.先将图片转换为灰度图2.再将灰度图转换为热力图;之后,将格式转化为RGB。3.叠加到原始图—————————————————————————————————代码:import numpy as npimg = cv2.imread("31.jpg") # 原图为31.jpgg原创 2021-10-19 11:56:36 · 1314 阅读 · 0 评论 -
计算机视觉可解释性——卷积神经网络中间层的可视化
这段代码的步骤大致如下:1.处理单张图作为网络的输入。2.根据给定的layer层,获取该层输出结果features。3.考虑到features的形状为[batch_size, filter_nums, H, W],提取其中第一个过滤器得到的结果的feature。4.以一张图作为输入的情况下,我们得到的feature即为[H,W]大小的tensor5.将tensor转为numpy,然后归一化[0,1],最后乘以255,使得范围为[0,255]。6.得到灰度图像保存。———————————————原创 2021-10-18 22:16:48 · 7573 阅读 · 6 评论