深度学习学习笔记(一)

本文介绍了深度学习中神经网络输入图像尺寸的灵活性,特别是全局平均池化的作用和实现,以及如何减少模型参数和计算量。讨论了Batchsize对训练的影响,并提供了计算显存消耗的思路。最后,提到了通过裁剪图像和调整模型结构来解决显存问题的方法。
摘要由CSDN通过智能技术生成

神经网络的输入图像的尺寸是否可变?

卷积神经网络里输入图像大小何时是固定,何时是任意?
简单来说,如果一个神经网络中只有卷积层,那么这个网络的输入就不是那么的重要,但是如果神经网络中有全连接层,由于经过同样的模型卷积之后,最后一层卷积层的输出层是一个n维向量,而不是扁平化的,所以如果做分类的话,就加一个全局平均池化这样就构成了一个没有全连接层的网络,可以使得网络的输入无所谓输入图片的维度,都可以正常的运行,最后出来输出的是一个热度图。(全局平均池化可不可以减少什么网路的参数?)
FCN全卷积网络
第二种方法是使用SPP,空间金字塔池化,引入SPP之后,在卷积层与全连接层之间加一层,用来调整卷积层的维度,这样也可以。

什么是全局平均池化?代码怎么实现?

什么是自适应平均池化(这边文章帮助我深刻理解了什么是自适应)
全局平均池化之后的模型是长这个样子的

(avgpool): AdaptiveAvgPool3d(output_size&
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值