【LLM学习之路】9月14日 第四天

【LLM学习之路】9月14日 第四天

imgs和targets作为dataloader的返回

import torchvision
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

#准备的测试数据集
test_data = torchvision.datasets.CIFAR10("./dataset",train=False,transform=torchvision.transforms.ToTensor())

#batch_size=4 取4个数据集进行一个打包,策略是默认随机抓取,每次随即抓取4个
#drop_last看最后剩余不足的话需不需要舍去
#shuffle每次epoch取得的数据顺序是否不同
test_loader = DataLoader(dataset=test_data,batch_size=4,shuffle=False,num_workers=0,drop_last=False)

# 测试数据集中第一张照片及target
img,target = test_data[0]
print(img.shape)
print(target)

writer = SummaryWriter("dataloader")
for epoch in range(2):
    step = 0
    for data in test_loader:
        imgs, targets = data
        writer.add_image("Epoch:{}".format(epoch),imgs,step)
        step += 1
writer.close()

注意dataloader的这些参数

#batch_size=4 取4个数据集进行一个打包,策略是默认随机抓取,每次随即抓取4个
#drop_last看最后剩余不足的话需不需要舍去
#shuffle每次epoch取得的数据顺序是否不同
test_loader = DataLoader(dataset=test_data,batch_size=4,shuffle=False,num_workers=0,drop_last=False)

神经网络的基本骨架

Container模块

最常用Module 为所有神经网络提供基本的骨架

神经网络框架需要继承Mudule,提供了一个模板,然后进行修改

前向传播 输入x 卷积 --> 非线性 --> 卷积 --> 非线性 --> 输出

写一个例子

class Tudui(nn.Module):
    def __init__(self) -> None:
        super().__init__()

    def forward(self,input):
        output = input + 1
        return output

#创建神经网络
tudui = Tudui()
x = torch.tensor(1.0)
output = tudui(x)
print(output)

为什么output = tudui(x)可以直接输出,但是没有显式地调用forward函数

因为有call函数,内部调用forward

torch.nn.functional.conv2d

重要参数解读

in_channels 输入图像的通道数,彩色图像一般是三个通道

out_channels 输出的通道数

kernel_size 卷积核的大小可以是一个数也可以是元组

stride步长,可以是单个数,也可以是个元组(sH,sW)横向步径和纵向步径

padding对周围空白进行填充,默认不进行填充,设置之后结果会大一圈

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值