PyTorch--torch.nn模块(一)卷积层和池化层

一、卷积层

1、使用卷积运算在图像识别、图像分割、图像重建等应用中有三个好处:
(1)稀疏连接: 在卷积神经网络中,通过输入卷积核来进行卷积操作,使输入单元(图像或特征映射)和输出单元(特征映射)之间的连接是稀疏的,这样能够减少需要训练参数的数量,从而加快网络的计算速度。
(2)参数共享: 模型中同一组参数可以被多个函数或操作共同使用。
(3)等变表示: 由于卷积核尺寸可以远远小于输入尺寸,即需要学习的参数的数量,并且针对每个卷积层可以使用多个卷积核获取输入的特征映射,对数据具有很强的特征提取和表示能力,并且在卷积运算之后,使得卷积神经网络结构对输入的图像具有平移不变的性质。

#torch.nn模块包含torch已经准备好的层,方便使用者调用构建网络,卷积层 池化层 激活函数层 循环层 全连接层
#卷积层
import torch
import torch.nn as nn
import matplotlib.pyplot as plt
import numpy as np
from PIL import Image
myim=Image.open("data/run.jpg")#读取图像
myimgray=np.array(myim.convert("L"),dtype=np.float32)#转化为灰度图像-》转化为numpy数组
print(myimgray.shape)       #498*600
#可视化
plt.figure(figsize=(6,6))
plt.imshow(myimgray,cmap=plt.cm.gray)
plt.axis("off")
plt.show()
imh,imw=myimgray.shape
#将numpy数组转化为张量
myimgray_t=torch.from_numpy(myimgray.reshape((1,1,imh,imw)))
print(myimgray_t.shape)
#卷积时 需将 图像转化为四维来表示 [batch,channel,h,w]
'''
在对图像进行卷积操作后 获得两个特征映射:
1、使用图像轮廓提取卷积核获取
2、第二个特征映射使用的卷积核为随机数 卷积核大小为5x5 对图像的边缘不使用0填充 所以卷积后输出的特征映射的尺寸为494x596
'''
#对灰度图像进行卷积提取图像轮廓
kersize=5     #定义边缘检测卷积核
ker=torch.ones(kersize,kersize,dtype=torch.float32)*-1
ker[2,2]=24
ker=ker.reshape((1,1,kersize,kersize))
print(ker)
#进行卷积操作
conv2d=nn.Conv2d(1,2,(kersize,kersize),bias=False)
#设置卷积时使用的核,第一个卷积核使用边缘检测核
conv2d.weight.data[0]=ker
#对灰度图像进行卷积操作
imconv2dout=conv2d(myimgray_t)
#对卷积后的输出进行维度压缩
imconv2dout_im=imconv2dout.data.squeeze()
print("卷积后尺寸:",imconv2dout_im.shape)
#可视化卷积后的图像
plt.figure(figsize=(12,6))
plt.subplot(1,2,1)
plt.imshow(imconv2dout_im[0],cmap=plt.cm.gray)
plt.axis("off")
plt.subplot(1,2,2)
plt.imshow(imconv2dout_im[1],cmap=plt.cm.gray)
plt.axis("off")
plt.show()

在这里插入图片描述
原图:
在这里插入图片描述
灰度图像:
在这里插入图片描述
卷积操作后的图像:
在这里插入图片描述

二、池化层

1、池化层
池化操作的一个重要目的就是对卷积后得到的特征进行进一步处理(主要是降维)。
平均池化层、最大池化层。

maxpool2=nn.MaxPool2d(2,stride=2)
pool2_out=maxpool2(imconv2dout)
pool2_out_im=pool2_out.squeeze()
print(pool2_out_im.shape)
#可视化最大池化后的结果  torch.Size([2, 247, 298])
plt.figure(figsize=(12,6))
plt.subplot(1,2,1)
plt.imshow(pool2_out_im[0].data,cmap=plt.cm.gray)
plt.axis("off")
plt.subplot(1,2,2)
plt.imshow(pool2_out_im[1].data,cmap=plt.cm.gray)
plt.axis("off")
plt.show()

在这里插入图片描述

avgpool2=nn.AvgPool2d(2,stride=2)
pool2_out=avgpool2(imconv2dout)
pool2_out_im=pool2_out.squeeze()
print(pool2_out_im.shape)
#可视化平均池化后的结果 torch.Size([2, 247, 298])
plt.figure(figsize=(12,6))
plt.subplot(1,2,1)
plt.imshow(pool2_out_im[0].data,cmap=plt.cm.gray)
plt.axis("off")
plt.subplot(1,2,2)
plt.imshow(pool2_out_im[1].data,cmap=plt.cm.gray)
plt.axis("off")
plt.show()

在这里插入图片描述

adaAvgpool2=nn.AdaptiveAvgPool2d(output_size=(100,100))
pool2_out=adaAvgpool2(imconv2dout)
pool2_out_im=pool2_out.squeeze()
print(pool2_out.shape)
#可视化自适应平均池化后的结果 torch.Size([1, 2, 100, 100])
plt.figure(figsize=(12,6))
plt.subplot(1,2,1)
plt.imshow(pool2_out_im[0].data,cmap=plt.cm.gray)
plt.axis("off")
plt.subplot(1,2,2)
plt.imshow(pool2_out_im[1].data,cmap=plt.cm.gray)
plt.axis("off")
plt.show()

在这里插入图片描述

  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch是一个基于Python的科学计算库,主要针对深度学习任务。在PyTorch中,torch.nn是一个用于构建神经网络模型的模块。 torch.nn模块提供了一系列神经网络层和函数,方便用户构建自定义的神经网络。用户可以通过继承torch.nn.Module类来定义自己的神经网络模型。torch.nn模块中常用的类包括各种层(例如全连接层、卷层、池化层和循环层等)、非线性激活函数和损失函数等。 在使用torch.nn模块构建神经网络时,用户需要实现模型的前向传播函数forward()。该函数定义了输入数据在神经网络中的流动方式,即通过层和函数的组合计算输出。在forward()函数中,用户可以使用已定义的层和函数进行计算,也可以实现自定义的操作。 torch.nn模块中的另一个重要概念是参数(parameter)。参数是模型中需要学习的变量,例如网络层的权重和偏置项。用户可以通过在模型中定义torch.nn.Parameter对象来创建参数,并在forward()函数中进行使用。 除了torch.nn模块外,PyTorch还提供了其他的工具和模块来辅助神经网络的训练和优化过程。例如torch.optim模块包含了各种优化算法,如随机梯度下降(SGD)、Adam等,用于更新模型中的参数。torch.utils.data模块提供了数据处理和加载的工具,方便用户使用自己的数据训练模型。 总之,torch.nn模块是PyTorch中用于构建神经网络模型的重要组成部分。通过使用torch.nn的各种类和函数,用户可以方便地创建自己想要的神经网络结构,并利用PyTorch强大的计算能力和优化算法来训练和优化模型。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值