Xiang神经网络总结(七)

  • ZFnet
    前面我们学习了AlexNet,现在我们学习ZFNet
    在这里插入图片描述
    将第一个卷积层的卷积核改小更关注细粒度的东西,原来AlexNet是11*11,大感受野可能忽略了很多细节,而这些细节在最基础的卷积层我们是不希望忽略的,因为忽略了后面的就再没有了。将第一层原来的卷积步长由4变成2,使得卷积后的特征响应图的大小(分辨率别下降的太快)保留更多信息。增加三四层卷积核个数这样理解:基元信息的卷积核可能没有太多,但是高级的具有语义信息的卷积核可能很多,所以高维的卷积层卷积核个数多了好,有利于提升分类精度。
    在这里插入图片描述
  • VGG
    在这里插入图片描述
    小卷积核能更具一细粒度的东西,深度深,卷积核更多有利于提升性能。
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    小卷积核的优势:
    多个小卷积核串联,相当于一个大的卷积核,但是计算量少了
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值