PyTorch中的nn.Conv1d与nn.Conv2d

一维卷积nn.Conv1d

一般来说,一维卷积nn.Conv1d用于文本数据,只对宽度进行卷积,对高度不卷积。通常,输入大小为word_embedding_dim * max_length,其中,word_embedding_dim为词向量的维度,max_length为句子的最大长度。卷积核窗口在句子长度的方向上滑动,进行卷积操作。

定义
class torch.nn.Conv1d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)

主要参数说明:

  • in_channels:在文本应用中,即为词向量的维度
  • out_channels:卷积产生的通道数,相当于是将词向量的维度从in_channels变成了out_channels
  • kernel_size:卷积核的尺寸;卷积核的第二个维度由in_channels决定,所以实际上卷积核的大小为kernel_size * in_channels
  • padding:对输入的每一条边,补充0的层数

代码示例
输入:批大小为32,句子的最大长度为35,词向量维度为256
目标:句子分类,共2类

conv1 = nn.Conv1d(in_channels=256, out_channels=100, kernel_size=2)
input = torch.randn(32, 35, 256)
input = input.permute(0, 2, 1)   # (32, 35, 256) => (32, 256, 35)
output = conv1(input)  # (32, 100, 34)

要使用permute是因为nn.Conv1d是对输入的最后一个维度卷积,所以要把句子长度所在的那个维度变换到最后。

上面的代码只使用了一个卷积核,如果要使用多个卷积核应该使用nn.ModuleList和for循环

import torch
import torch.nn as nn

window_sizes = [2,3,4]
convs = nn.ModuleList([
            nn.Sequential(nn.Conv1d(in_channels=8, 
                                    out_channels=4, 
                                    kernel_size=h),
                          nn.ReLU())
                          for h in window_sizes
                    ])
embed = torch.randn(2, 16, 8)
embed = embed.transpose(1,2)
output = [conv(embed) for conv in convs]
#print(output)
for x in output:
    print(x.size())

'''输出
torch.Size([2, 4, 15])
torch.Size([2, 4, 14])
torch.Size([2, 4, 13])
'''
二维卷积nn.Conv2d

一般来说,二维卷积nn.Conv2d用于图像数据,对宽度和高度都进行卷积。

定义
class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)

代码示例
假设现有大小为32 x 32的图片样本,输入样本的channels为1,该图片可能属于10个类中的某一类。CNN框架定义如下:

class CNN(nn.Module):
    def __init__(self):
        nn.Model.__init__(self)
 
        self.conv1 = nn.Conv2d(1, 6, 5)  # 输入通道数为1,输出通道数为6
        self.conv2 = nn.Conv2d(6, 16, 5)  # 输入通道数为6,输出通道数为16
        self.fc1 = nn.Linear(5 * 5 * 16, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)

    def forward(self,x):
        '''
			总共有2个卷积层,每一层的结构都是卷积->relu->max_pool
		'''
		# 第一层
        x = self.conv1(x)   # 32*32*1 => 28*28*6
        x = F.relu(x)
        x = F.max_pool2d(x, 2)  # 28*28*6 => 14*14*6
        # 第二层
        x = self.conv2(x)     # 14*14*6 => 10*10*16
        x = F.relu(x)
        x = F.max_pool2d(x, 2)   # 10*10*16 => 5*5*16
        # view函数将张量x变形成一维向量形式,总特征数不变,为全连接层做准备
        x = x.view(x.size()[0], -1)   # 5*5*16 => 400*1
        x = F.relu(self.fc1(x))       # 400*1 => 120 * 1
        x = F.relu(self.fc2(x))       # 120*1 => 84*1
        x = self.fc3(x)               # 84*1 => 10*1
        return x

在这里插入图片描述
参考:PyTorch中的nn.Conv1d与nn.Conv2d

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值