nn.Conv1d当kernel-size=1时的应用

Conv1d和Conv2d的区别

Conv1d的官方文档

重点就是理解Conv1d纵列进行滑动

In [12]: a = torch.randn(20,16,50)

In [13]: a.shape
Out[13]: torch.Size([20, 16, 50])

In [14]: m = torch.nn.Conv1d(16, 33, 1)

In [15]: m(a).shape
Out[15]: torch.Size([20, 33, 50])

这段代码定义了一个CNN模型,它包含了两个卷积层和两个全连接层。下面是对代码的解释: ```python class CNN(nn.Module): def __init__(self, input_size, output_size): super(CNN, self).__init__() self.B = B self.relu = nn.ReLU(inplace=True) self.conv1 = nn.Sequential( nn.Conv1d(in_channels=input_size, out_channels=64, kernel_size=2), # 24 - 2 + 1 = 23 nn.ReLU(), nn.MaxPool1d(kernel_size=2, stride=1), # 23 - 2 + 1 = 22 ) self.conv2 = nn.Sequential( nn.Conv1d(in_channels=64, out_channels=128, kernel_size=2), # 22 - 2 + 1 = 21 nn.ReLU(), nn.MaxPool2d(kernel_size=2, stride=1), # 21 - 2 + 1 = 20 ) self.Linear1 = nn.Linear(self.B * 127 * 20, self.B * 50) self.Linear2 = nn.Linear(self.B * 50 , output_size) def forward(self, x): # [batch_size, n_features, data_len] x = x.permute(0, 2, 1) x = self.conv1(x) x = self.conv2(x) x = x.view(-1) x = self.Linear1(x) x = self.relu(x) x = self.Linear2(x) x = x.view(x.shape[0], -1) return x ``` 在构造函数`__init__`中,模型初始化了一些参数并定义了网络的各个层。其中,`self.conv1`是一个包含了一个卷积层、ReLU激活函数和最大池化层的序列。`self.conv2`也是一个类似的序列。`self.Linear1`和`self.Linear2`分别是两个全连接层。 在前向传播函数`forward`中,输入数据首先进行形状变换,然后通过卷积层和激活函数进行特征提取和降维。之后,将特征展平并通过全连接层进行预测。最后,输出结果进行形状变换以匹配预期的输出形状。 需要注意的是,代码中的一些变量(如`B`)没有给出具体的定义,你可能需要根据自己的需求进行修改。 希望这个解释对你有所帮助!如果还有其他问题,请随提问。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值