《可解释人工智能公开课》—by 同济子豪兄 第二章ZF算法笔记

目录

基于Alexnet上进行改进

关于反卷积

图像局部相关性分析

实验数据


视频链接:ZFNet深度学习图像分类算法_哔哩哔哩_bilibili

基于Alexnet上进行改进

具体的改进效果在图8

图1 具体改进

关于反卷积

 图2 反卷积流程图

 图3 反池化的过程

图片例子:右边是最大激活的真实图片(9×9),左边是通过反卷积得到的可视化特征图(让我们了解卷积的时候,神经网络学习到的特征是什么),对应图2的反卷积流程图可以知道,这是重构

图4 图片例子

层数越高提取的特征越高级、不变,如层五,提取的是草地背景

 图5  3、4、5层反卷积的输出

第二列的热力图在第五层时,灰色方框在图中不同位置进行遮挡,然后对这些结果进行叠加

图6 遮挡测试

图像局部相关性分析

在图像局部相关性分析中,通过对比遮不同部位的海明距离,验证了上面所说:层数越高(第五层vs第七层,从大到略大)越是关注语义信息,趋向不变性

图7 图像局部相关性分析

实验数据

进行测试,a模型将第一层卷积层的步长由4改成2,卷积核的大小从11×11改成7×7;b模型是在a模型的基础上:把3、4、5层的卷积层个数增加到512、1024和512

图8 对AlexNet进行更改的实验

去除一些层,可见深度对其有影响;增加神经元,可见出现了过拟合现象

图9 去除一些层的实验

体现模型的泛化性和迁移学习的巧妙,当使用在ImageNet上训练好的参数放到新的数据集(Caltech-101),仅对最后添加的softmax层进行训练的效果要比不保留参数、重新训练的效果好很多

 图10 在Caltech-101上迁移学习

在Caltech256上同理

 图11 在Caltech256上迁移学习

只用6张图片训练每个类就能达到之前最好的效果,大大节省了计算成本,当然数据越多效果越好

图12 迁移学习减少计算

在与ImageNet数据集长的不太一样的数据集中,迁移学习行不通,但是可以针对新的数据集更改损失函数再利用迁移学习

图13 在PASCAL 2012上迁移学习

分析了网络中不同的层提取特征对分类的有效性,发现越深的层对提取信息越有效,不管是全连接层还是支持向量机都是对其起到一个分类的作用

图14 全连接层与支持向量机

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值