打印卷积层和最大池化层输出维度

问题描述

当阅读神经网络代码时,经常会有很多各种各样的层,比如有一个这样的卷积层 nn.Conv2d(3, 48, kernel_size=5, stride=2, padding=0),我想知道在执行完这行代码后,输出的张量维度为多少。

已知输入维度是 (224, 224, 3),分别表示 (width, height, channel)

问题解决

import torch.nn as nn
import torch
conv = nn.Conv2d(3, 48, kernel_size=5, stride=2, padding=0) # 卷积层
# 构建一个维度正确的输入
x = torch.rand(1, 3, 224, 224)
res = conv(x)
print(res.shape) # 输出 torch.Size([1, 48, 110, 110])

卷积层输出张量维度计算公式

Conv2d:output = ((input_size - kernel_size + 2 * padding) / stride ) + 1 向下取整

举例:

如果输入维度是 (224, 224, 3),卷积层为 nn.Conv2d(in_channels=3, out_channels=48, kernel_size=5, stride=2, padding=0),计算公式如下:

(224-5+2*0)/2+1 =110.5

所以输出的维度就是 (110, 110, 48)

最大池化层输出张量维度计算公式

MaxPool2d:(input_size - kernel_size) / stride + 1 向下取整

举例

如果输入维度为 (106, 106, 96),最大池化层为 nn.MaxPool2d(kernel_size=3, stride=2),计算公式如下:

(106-3)/2+1=52.5

所以输出的维度就是 (52, 52, 96)

代码验证如下:
x = torch.rand(96, 106, 106)
maxpooling = nn.MaxPool2d(kernel_size=3, stride=2)
res = maxpooling(x)
print(res.shape)	# 输出结果为 torch.Size([96, 52, 52])

多个卷积或池化层的网络

import torch.nn as nn
import torch

# 网络结构
net = nn.Sequential(
	nn.Conv2d(3, 48, kernel_size=5, stride=2, padding=0), # 卷积层 (224, 224, 3) -> (110, 110, 48)
	nn.MaxPool2d(kernel_size=3, stride=2)	# (110, 110, 48) -> (54, 54, 48)
)
# 构建输入
x = torch.rand(1, 3, 224, 224)
# 将输入特征向量送入网络
res = net (x)	# torch.Size([1, 48, 54, 54])
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
如果你想要添加更多的卷积层、池化或全连接来增加CNN网络的复杂度,你可以修改 `TimeSeriesCNN` 类的构造函数和 `forward` 方法来添加额外的。 以下是一个示例,演示如何添加额外的卷积层和全连接: ```python import torch import torch.nn as nn class TimeSeriesCNN(nn.Module): def __init__(self, input_dim, hidden_dim, output_dim): super(TimeSeriesCNN, self).__init__() self.conv1 = nn.Conv1d(input_dim, hidden_dim, kernel_size=3) self.conv2 = nn.Conv1d(hidden_dim, hidden_dim, kernel_size=3) self.pool = nn.MaxPool1d(kernel_size=2) self.relu = nn.ReLU() self.fc1 = nn.Linear(hidden_dim * 4, hidden_dim) self.fc2 = nn.Linear(hidden_dim, output_dim) def forward(self, x): x = self.conv1(x) x = self.relu(x) x = self.pool(x) x = self.conv2(x) x = self.relu(x) x = self.pool(x) x = torch.flatten(x, start_dim=1) x = self.fc1(x) x = self.relu(x) x = self.fc2(x) return x # 定义输入数据和标签 input_dim = 1 # 输入维度(时间序列的特征数) hidden_dim = 16 # 隐藏维度 output_dim = 1 # 输出维度(预测的目标) seq_length = 10 # 时间序列的长度 # 创建模型实例 model = TimeSeriesCNN(input_dim, hidden_dim, output_dim) # 创建输入数据(batch_size=1) input_data = torch.randn(1, input_dim, seq_length) # 运行模型进行预测 output = model(input_data) # 打印预测结果 print(output) ``` 在这个示例中,我们添加了一个额外的卷积层 `conv2` 和一个额外的全连接 `fc1`。我们还使用了池化 `pool` 将特征图的尺寸降低一半。 你可以根据你的需求继续添加更多的卷积层、池化或全连接,并使用适当的激活函数和参数设置来构建更复杂的CNN网络。请记住,根据你的数据和任务的特点,可能需要调整网络架构和超参数来获得最佳的性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

悄悄地努力

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值