Pytorch手动实现卷积

31 篇文章 1 订阅
20 篇文章 6 订阅

某些时候可能需要用到类似卷积操作滑动窗的思想,实现一些操作。具体实现如下,首先导入必要的包

import torch
import numpy as np
import torch.nn as nn

方便起见(同时为了验证方法正确性),构建简单的卷积输入

input = torch.from_numpy(np.array([1,2,3,4,5,6,7,8,9])).view((1,1,3,3)).float()

查看输入内容

In [5]: input.shape                                                                                                                                                                                                                        
Out[5]: torch.Size([1, 1, 3, 3])

In [6]: input                                                                                                                                                                                                                              
Out[6]: 
tensor([[[[1, 2, 3],
          [4, 5, 6],
          [7, 8, 9]]]])

其中,输入张量存储方式按照pytorch正常卷积操作,即BxCxKxK

手动构造卷积核

In [7]: kernel = torch.ones((1,2,2,1))                                                                                                                                                                                                     

In [8]: kernel                                                                                                                                                                                                                             
Out[8]: 
tensor([[[[1.],
          [1.]],

         [[1.],
          [1.]]]])

卷积核尺寸为CxKxKxCout。

接下来是手动实现卷积的核心,利用Unfold函数,Unfold可以将输入数据按照卷积时候的滑动窗cube方式展开

unfold = nn.Unfold(kernel_size=2) 

对输入进行操作

unin = unfold(input) 

查看Unfold之后的尺寸

In [14]: unin.shape                                                                                                                                                                                                                        
Out[14]: torch.Size([1, 4, 4])

其各个轴分别为Bx(K*K)xN,其中N是滑动窗的数量。

为了实现卷积,需要对Unfold之后的数据重新调整维度,如下

In [21]: unin = unin.view((1,1,-1,2,2))                                                                                                                                                                                                    

In [22]: unin.shape                                                                                                                                                                                                                        
Out[22]: torch.Size([1, 1, 4, 2, 2])

其中,unin的尺寸为BxCx(K*K)xH'xW'

对卷积核重新调整维度

In [24]: kernel = kernel.view((1,-1,1))                                                                                                                                                                                                    

In [25]: kernel.shape                                                                                                                                                                                                                      
Out[25]: torch.Size([1, 4, 1])

其中kernel的维度为Cin x (K*K) x Cout

维度调整好后,实现卷积的乘积求和操作,采用einsum求和方式

In [26]: out = torch.einsum('ijkmn,jkl->ilmn',unin,kernel)                                                                                                                                                                                 

In [27]: out.shape                                                                                                                                                                                                                         
Out[27]: torch.Size([1, 1, 2, 2])

查看输入数据及卷积后的结果

In [29]: input                                                                                                                                                                                                                             
Out[29]: 
tensor([[[[1, 2, 3],
          [4, 5, 6],
          [7, 8, 9]]]])

In [28]: out                                                                                                                                                                                                                               
Out[28]: 
tensor([[[[12., 16.],
          [24., 28.]]]])

 

  • 5
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
手动实现二维卷积核,我们首先需要了解卷积的工作原理。卷积操作的目的是将一个滤波器(也称为卷积核)在输入的图像上滑动,并对每个滑动位置的局部区域进行加权求和,从而得到一个输出特征图。 首先,我们需要准备输入图像和卷积核。假设输入图像是NxN大小的,卷积核大小为KxK,我们先创建一个大小为NxN的二维数组来表示输入图像,并用随机数初始化。接下来,我们创建一个大小为KxK的二维数组作为卷积核。 然后,我们需要遍历输入图像的每个位置,并在每个位置上进行卷积操作。对于每个位置,我们取与卷积核大小相同的局部区域,并将该区域与卷积核进行按元素相乘,并将结果求和。这个求和结果就是在当前位置上卷积的输出值。 最后,我们将所有卷积的输出值放入一个新的二维数组中,这个数组的大小为(N-K+1)x(N-K+1)。这个输出数组就是经过卷积操作后得到的特征图。 在Python中,我们可以使用循环来实现上述过程。具体代码如下: ```python import numpy as np def manual_convolution(input_image, kernel): N, _ = input_image.shape K, _ = kernel.shape output_size = N - K + 1 output = np.zeros((output_size, output_size)) for i in range(output_size): for j in range(output_size): output[i, j] = np.sum(input_image[i:i+K, j:j+K] * kernel) return output # 生成输入图像和卷积核 N = 5 K = 3 input_image = np.random.random((N, N)) kernel = np.random.random((K, K)) # 手动进行二维卷积操作 output = manual_convolution(input_image, kernel) print("输出特征图:") print(output) ``` 以上代码首先生成了一个5x5的随机输入图像和一个3x3的随机卷积核,然后调用`manual_convolution`函数进行手动实现的二维卷积操作。最后,输出得到的特征图。 请注意,手动实现的二维卷积操作只是一种简化的方式,如果需要高效地进行卷积操作,建议使用已经优化过的卷积函数,如PyTorch中的`torch.nn.functional.conv2d`。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值