神经网络各种层的输入输出尺寸计算

各种层的输入输出尺寸计算的基本方法:

全连接层(Fully Connected Layer):

输入尺寸:(批量大小, 输入特征数)
输出尺寸:(批量大小, 输出特征数)
计算方式:输入特征数与输出特征数之间的全连接,输出尺寸就是设定的输出特征数。

卷积层(Convolutional Layer):

输入尺寸:(批量大小, 输入通道数, 高, 宽)
输出尺寸:(批量大小, 输出通道数, 输出高, 输出宽)
计算方式:
输出高 = (输入高 - 卷积核高 + 2 * 填充) / 步幅 + 1
输出宽 = (输入宽 - 卷积核宽 + 2 * 填充) / 步幅 + 1

池化层(Pooling Layer):

输入尺寸:(批量大小, 输入通道数, 高, 宽)
输出尺寸:(批量大小, 输入通道数, 输出高, 输出宽)
计算方式:
输出高 = (输入高 - 池化核高) / 步幅 + 1
输出宽 = (输入宽 - 池化核宽) / 步幅 + 1

归一化层(Normalization Layer,比如 Batch Normalization):

输入尺寸:(批量大小, 特征数)
输出尺寸:(批量大小, 特征数)
计算方式:通常不改变尺寸,仅对特征进行归一化处理。

激活层(Activation Layer,比如 ReLU):

输入尺寸:(批量大小, 特征数)
输出尺寸:(批量大小, 特征数)
计算方式:不改变尺寸,只是应用激活函数。

这些计算方式可帮助你理解每层的尺寸变换。

  • 10
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值