小土堆卷积,最大池化,非线性的代码笔记

本文介绍了卷积操作在图像处理中的应用,包括卷积核的概念、卷积与最大池化的原理,以及ReLU和Sigmoid等非线性函数在神经网络中的作用。通过示例展示了如何使用PyTorch实现这些技术。最后,展示了CIFAR10数据集上的非线性变换应用。
摘要由CSDN通过智能技术生成

卷积就是一张图片,再建立一个卷积核(这也是一个矩阵),将卷积核覆盖到图片的像元上,卷积核的每个值和覆盖的对应像元的值相乘,然后按照预定的步长移动,当然一般的核比图片小之后所有的相乘的值相加构成的一个新的矩阵

最大池化,就是也有一个矩阵作为核,将这个矩阵覆盖到图片上,图片上被覆盖的最大的像元值筛选出来,和卷积有点相似

非线性小土堆我看到的只是介绍了两个函数,一个是relu,还有一个是sigmiod,relu就是将像元值小于0的值变成零,大于零的值不变,然后,sigmiod是将所有的像元值强行变成0到1之间,这是为了给神经元保留非线性特征

卷积练习代码,运行结果比较简单,不展示了

from  torch.nn import functional as F
import torch
input=torch.tensor([[1,2,0,3,1],
                [0,1,2,3,1],
                [1,2,1,0,0],
                [5,2,3,1,1],
                [2,1,0,1,1]])
keynel=torch.tensor([[1,2,1],
                     [0,1,0],
                     [2,1,0]])
"""
input=torch.reshape(input,(1,1,5,5))
这一行是将原来的图片变换格式,1是一个通道,1是batch_size指的是只有一张图片,后面两个是5阶矩阵
"""
input=torch.reshape(input,(1,1,5,5))
keynel=torch.reshape(keynel,(1,1,3,3))
"""
这里输入的input是图像数据,keynel是卷积层,这里的input和keynel必须有通道和图片数量限制
stride指的是卷积层移动的速度
padding=1指的是在图片周围加上一圈默认为0的像素
"""
output=F.conv2d(input,keynel,stride=1,padding=1)
print(output)

最大池化练习代码,运行结果也比较简单,不展示了

import torch
from  torch.nn import Module
from torch.nn import MaxPool2d
totensor=torch.tensor([[1,2,0,3,1],
                       [0,1,2,3,1],
                       [1,2,1,0,0],
                       [5,2,3,1,1],
                       [2,1,0,1,1]],dtype=torch.float)
#要进行图片变换的原因是,不管池化也好,卷积也好要求的都是四维数据,第一维表示输入的图片,第二维表示通道,第三第四表示矩阵大小
input=torch.reshape(totensor,(-1,1,5,5))#这里的第一个参数-1是让电脑自己计算它的batch_size
class MyModule(Module):
    def __init__(self):
        super(MyModule, self).__init__()
        self.maxpool2d=MaxPool2d(kernel_size=3,ceil_mode=True)#这里先实例化这个方法
    def forward(self, x):
        x=self.maxpool2d(x)#实例化方法后输入值
        return x
M=MyModule()
"""
这里可以实例化之后直接不用向对象输入值,就可以对对象输值的原因就是module里面内置了call方法
"""
max=M(input)#所以这里对对象直接调用输入例子
print(max)

非线性变化练习代码

#非线性变化就是把图片的非线性特征加入到神经网络中
import  torch
from torch.nn import Module
from torch.nn import ReLU
input=torch.tensor([[1,-1],
                    [-2,3]])
input=torch.reshape(input,(-1,1,2,2))
class Myrelu(ReLU):
    def __init__(self):
        super().__init__()
        self.relu=ReLU(inplace=False)#这里这个ReLu如果是Falese就会将图像中为负值的像元变成0

    def forward(self,x):
        x=self.relu(input)
        print("已经完成了非线性")
        return x
output=Myrelu()
destinctive_output=output(input)
print(destinctive_output)

from torchvision.datasets import CIFAR10
from torchvision import transforms
from torch.utils.data import DataLoader
from torch.nn import Module
from torch.nn import Sigmoid
from torch.utils.tensorboard import SummaryWriter
chang_totensor=transforms.ToTensor()
totensor=transforms.Compose([chang_totensor])
tensor=CIFAR10(root="./dataset_load",transform=totensor,train=False,download=True)
load=DataLoader(dataset=tensor,batch_size=64,shuffle=True,num_workers=0,drop_last=False)

class MySigmoid(Module):
    def __init__(self):
        super().__init__()
        self.sigmoid=Sigmoid()

    def forward(self,x):
        x=self.sigmoid(x)
        return x
mysigmoid=MySigmoid()
input=torch.tensor([[1,-1],
                    [-2,3]])
writer=SummaryWriter("logs")
step=0
for datas in load:
    img,target=datas
    writer.add_images(tag="no change",img_tensor=img,global_step=step)
    changed_tensor=mysigmoid(img)
    writer.add_images(tag="changed",img_tensor=changed_tensor,global_step=step)#这里的add_images是有batch_size这个选项就要加s
    step=step+1
writer.close()
print(step)

非线性变化代码运行图片展示

  • 18
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值