目录
视频链接:ZFNet深度学习图像分类算法_哔哩哔哩_bilibili
基于Alexnet上进行改进
具体的改进效果在图8
图1 具体改进
关于反卷积
图2 反卷积流程图
图3 反池化的过程
图片例子:右边是最大激活的真实图片(9×9),左边是通过反卷积得到的可视化特征图(让我们了解卷积的时候,神经网络学习到的特征是什么),对应图2的反卷积流程图可以知道,这是重构
图4 图片例子
层数越高提取的特征越高级、不变,如层五,提取的是草地背景
图5 3、4、5层反卷积的输出
第二列的热力图在第五层时,灰色方框在图中不同位置进行遮挡,然后对这些结果进行叠加
图6 遮挡测试
图像局部相关性分析
在图像局部相关性分析中,通过对比遮不同部位的海明距离,验证了上面所说:层数越高(第五层vs第七层,从大到略大)越是关注语义信息,趋向不变性
图7 图像局部相关性分析
实验数据
进行测试,a模型将第一层卷积层的步长由4改成2,卷积核的大小从11×11改成7×7;b模型是在a模型的基础上:把3、4、5层的卷积层个数增加到512、1024和512
图8 对AlexNet进行更改的实验
去除一些层,可见深度对其有影响;增加神经元,可见出现了过拟合现象
图9 去除一些层的实验
体现模型的泛化性和迁移学习的巧妙,当使用在ImageNet上训练好的参数放到新的数据集(Caltech-101),仅对最后添加的softmax层进行训练的效果要比不保留参数、重新训练的效果好很多
图10 在Caltech-101上迁移学习
在Caltech256上同理
图11 在Caltech256上迁移学习
只用6张图片训练每个类就能达到之前最好的效果,大大节省了计算成本,当然数据越多效果越好
图12 迁移学习减少计算
在与ImageNet数据集长的不太一样的数据集中,迁移学习行不通,但是可以针对新的数据集更改损失函数再利用迁移学习
图13 在PASCAL 2012上迁移学习
分析了网络中不同的层提取特征对分类的有效性,发现越深的层对提取信息越有效,不管是全连接层还是支持向量机都是对其起到一个分类的作用
图14 全连接层与支持向量机