【LLM学习之路】9月14日 第四天
imgs和targets作为dataloader的返回
import torchvision
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter
#准备的测试数据集
test_data = torchvision.datasets.CIFAR10("./dataset",train=False,transform=torchvision.transforms.ToTensor())
#batch_size=4 取4个数据集进行一个打包,策略是默认随机抓取,每次随即抓取4个
#drop_last看最后剩余不足的话需不需要舍去
#shuffle每次epoch取得的数据顺序是否不同
test_loader = DataLoader(dataset=test_data,batch_size=4,shuffle=False,num_workers=0,drop_last=False)
# 测试数据集中第一张照片及target
img,target = test_data[0]
print(img.shape)
print(target)
writer = SummaryWriter("dataloader")
for epoch in range(2):
step = 0
for data in test_loader:
imgs, targets = data
writer.add_image("Epoch:{}".format(epoch),imgs,step)
step += 1
writer.close()
注意dataloader的这些参数
#batch_size=4 取4个数据集进行一个打包,策略是默认随机抓取,每次随即抓取4个
#drop_last看最后剩余不足的话需不需要舍去
#shuffle每次epoch取得的数据顺序是否不同
test_loader = DataLoader(dataset=test_data,batch_size=4,shuffle=False,num_workers=0,drop_last=False)
神经网络的基本骨架
Container模块
最常用Module 为所有神经网络提供基本的骨架
神经网络框架需要继承Mudule,提供了一个模板,然后进行修改
前向传播 输入x 卷积 --> 非线性 --> 卷积 --> 非线性 --> 输出
写一个例子
class Tudui(nn.Module):
def __init__(self) -> None:
super().__init__()
def forward(self,input):
output = input + 1
return output
#创建神经网络
tudui = Tudui()
x = torch.tensor(1.0)
output = tudui(x)
print(output)
为什么output = tudui(x)可以直接输出,但是没有显式地调用forward函数
因为有call函数,内部调用forward
torch.nn.functional.conv2d
重要参数解读
in_channels 输入图像的通道数,彩色图像一般是三个通道
out_channels 输出的通道数
kernel_size 卷积核的大小可以是一个数也可以是元组
stride步长,可以是单个数,也可以是个元组(sH,sW)横向步径和纵向步径
padding对周围空白进行填充,默认不进行填充,设置之后结果会大一圈