【深度学习】为什么三维卷积数据量大

本文探讨了三维深度学习中参数量庞大的原因,特别是在三维卷积操作中,由于特征图维度的增加导致参数量和显存占用显著增长。作者通过计算展示了1维、2维和3维卷积的显存占用差异,并指出在三维点云处理中,常用策略如分组、体素化和多视图投影能有效降低计算量。尽管如此,当深度特征图某一维度较小,如VoxelNet的深度方向,仍可利用三维卷积进行特征提取。
摘要由CSDN通过智能技术生成

本文为博主原创文章,未经博主允许不得转载。
本文为专栏《python三维点云从基础到深度学习》系列文章,地址为“https://blog.csdn.net/suiyingy/article/details/124017716”。

        我们可能会经常听到在三维领域深度学习的参数量会非常庞大,以至于三维卷积的深度学习方不太适用。那么三维深度学习的参数量究竟是什么情况,本文将进行具体分析。

        上一节,我们研究了深度学习神经网络中参数量、模型大小和显存大小之间的相互关系和详细的计算方法,具体内容请参考:【深度学习】参数量、模型大小、显存_Coding的叶子的博客-CSDN博客

1 前提条件      

        我们仍然就一层卷积来进行说明,假设输入通道为C1=256,输出通道C2=512,卷积核尺寸为4,batch size为16,特征图尺寸为128。

2 计算过程

        那么,对于1维情况来说,训练阶段的显存占用为:

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Coding的叶子

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值