tensor如何实现转置_[思考]CNN中feature的形状转换对于模型整体性能的影响如何?...

写在前面:

最近同时在进行几个工作,其中有一个工作还是比较有趣,虽然感觉简单或者不被重视,或者他本身就没有研究的价值??? whatever 。具体idea不便描述,直接引入我们的问题:

7ec9969c18f80f88c000fcf6a434cfde.png

假设bs不做考虑,那么CNN输出的feature map尺寸是一个三维特征(C*H*W),其中输出feature尺寸和 输入的feature尺寸、卷积核大小、padding、dilated、stride有关,具体计算很基础,就不做过多阐述了。

那么问题来了,输出feature的形状转换对于模型整体性能的影响如何?

下面举几个例子解释一下我所理解的feature的形状转换具体指什么:

eg:

1、通过1*1卷积(不限于1*1)进行形状转换:

卷积核个数为Cout个,Cin*H*W -> Cout*H*W,其中输出通道数从Cin转换为Cout,这里大家肯定想到1*1不过是为了channel降维、减少后续计算量,或者接在concat或element-wise的处理之后融合、平滑、聚合特征这样。没错继续(3D->3D)

那么如果只有一个卷积核,Cin*H*W -> 1*H*W -> H*W ,这样把

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值