第五周 GoogLeNet-v3

1:文字回答:GoogLeNet-V3中,特征图分辨率从3535降到1717,采用的是Inception(ABCDE)中的哪一个? 对应论文中哪一幅图?该结构最大的特点是什么?
答:E在这里插入图片描述
运用了高效特征图分辨率下降策略:用卷积得到一半特征图,用池化得到一半特征图,从而用较少的计算量获得较多的信息,避免信息表征瓶颈。
2:文字回答:Label Smoothing 对模型训练有什么积极影响? 其中的epsilon参数作用是什么?
答:可以克服One-hot编码存在问题—过度自信进而导致过拟合的问题,标签平滑把One-hot中概率为1的那一项进行衰减,避免过度自信,衰减的那部分confidence平均分到每一个类别中,从而更加易于模型训练。
其中的epsilon参数的作用是:将q进行标签平滑变为q‘,让模型输出的p分布去逼近q’。
3:文字回答:卷积分解有哪两种形式? 分别在Inception(ABCDE)中何处使用?
答:卷积分解有如下两种方式:
(1)大卷积核分解为小卷积核堆叠,如1个55卷积分解为2个33卷积。
在Inception A中使用,如下图所示:
在这里插入图片描述
(2)分解为非对称卷积,如1个nn卷积分解为1n和n1卷积堆叠,但是要注意非对称卷积在后半段使用效果才好,特别使特征图分辨率在12-20之间,本文在分辨率为1717的时候使用非对称卷积。
在 Inception B使用,如下图所示:
在这里插入图片描述
4:文字回答:读完该论文,对你的启发点有哪些?
答:课上启发点:
1. CNN的分类是CNN视觉任务的基础:在分类上表现好的CNN,通常在其它视觉任务中表现也良好。
2. GoogleNet很多论文的最优结果均是通过大量实验得出,一般玩家难以复现。
3. 非对称卷积分解在分辨率为12-20的特征图上效果较好,且用17和71进行特征提取。
4. 在网络训练初期,辅助分类层的加入并没有加快网络收敛,在训练后期,才加快网络的收敛。
5. 移除两个辅助分类层中的一个,并不影响网络性能。
6. 标签平滑参数设置,让非标签的概率保持在10-4左右。
5:代码实现:从网上找一张图片,执行GoogLeNet-V3,观察top5输出的类别,并将输出结果截图进行打卡。
答:
在这里插入图片描述
6:文字:本篇论文的学习笔记及总结
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值