一、课程代码复现
里面有一部分,不知道为什么总是说我语法错误,目前还没找出来,先留存在此
#导入各种需要的包
import torch
from torchvision import transforms#处理图像时常用的transform,后面会介绍会变成向量
from torchvision import datasets
from torch.utils.data import DataLoader
import torch.nn.functional as F#不用sigmoid,用ReLu
import torch.optim as optim#优化器
#prepare Dataset,准备数据集
batch_size = 64
#把张量变成一阶向量,并压缩成浮点数
'''transform = transforms.Compose([
transforms.ToTensor(),
transforms.Normalize((0.1307,),(0.3081,))#分别是mean均值和标准差std,这两个值是对整个MINIST的数据集求后得到的经验值
])
train_dataset = datasets.MNIST(root='dataset/mnist/',
train=True,
download=True,
transform=tansform)
train_loader = DataLoader(train_dataset,
shuffle=True,
batch_size=batch_size)#定义dataset,从网上下载下来
test_dataset = dataset.MNIST(root='dataset/mnist/',
train=False,
download=True,
transform=transform)
test_loader = DataLoader(test_dataset,
shuffle=False,
batch_size=batch_size)'''
transform = transforms.Compose([
transforms.ToTensor(),
# 均值 标准差 => 切换到0-1正态分布
transforms.Normalize((0.1307, ), (0.3081, )) # 数值计算之后得到的结果
])
# 在视觉里面,灰度图就是一个矩阵,但实际上并不是一个矩阵,我们把它叫做单通道图像,彩色图像是RGB三通道图像,通道有宽度和高度,一般我们读进来的图像张量是WHC(宽高通道)
# 在PyTorch里面我们需要将WHC转化成CWH,把通道放在前面是为了在PyTorch里面进行更高效的图像处理,卷积运算
train_dataset = datasets.MNIST(root='dataset/mnist/',
train=True,
download=True,
transform=transform)
train_loader = DataLoader(train_dataset,
shuffle=True,
batch_size=batch_size)
test_dataset = datasets.MNIST(root='dataset/mnist',
train=False,
download=True,
transform=transform)
test_loader = DataLoader(test_dataset,
shuffle=False,
batch_size=batch_size)
#Design Model定义模型
class Net(torch.nn.Module):
def __init__(self):#注意这些定义之前都是两个短横,包括__main__等,一定注意
super(Net, self).__init__()
self.l1 = torch.nn.Linear(784,512)
self.l2 = torch.nn.Linear(512,256)
self.l3 = torch.nn.Linear(256,128)
self.l4 = torch.nn.Linear(128,64)
self.l5 = torch.nn.Linear(64,10)
#建了5层神经网络
def forward(self, x):
x = x.view(-1, 784)
x = F.relu(self.l1(x))
x = F.relu(self.l2(x))
x = F.relu(self.l3(x))
x = F.relu(self.l4(x))
return self.l5(x)
model = Net()
#选择Loss和optimizer
criterion = torch.nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.5)
#定义train和test
def train(epoch):
running_loss = 0.0
for batch_idx, data in enumerate(train_loader, 0):
inputs, target = data
optimizer.zero_grad()
#forward
outputs = model(inputs)
loss = criterion(outputs,target)
#backward
loss.backward()
#update
optimizer.step()
#把算出来的loss累加到running_loss里面
running_loss += loss.item()
if batch_idx % 300 == 299:#每300个输出一轮
print('[%d, %5d] loss: %.3f' % (epoch + 1, batch_idx + 1, running_loss / 300))
running_loss = 0.0#输出过后将这个计数工具清零
def test():
correct = 0
total = 0
with torch.no_grad():#test数据集不用算梯度
for data in test_loader:
images, labels = data
outputs = model(images)
_, predicted = torch.max(outputs.data, dim = 1)#表示在列下找最大值,返回最大值和下标
total += labels.size(0)
correct += (predicted == labels).sum().item()
print('Accuracy on test set: %d %%' % (100*correct / total) )
#前面的train和test定义完之后,后面可以直接写
if __name__ == '__main__':
for epoch in range(10):
train(epoch)
test()
二、课后作业
需要下载包的UU可以dd我,kaggle上面需要验证注册,考虑使用MOS系统,不用梯子就可以直接得到人机检验
作业代码:从刘二大人 PyTorch深度学习实践 笔记 P9 多分类问题处得到
可以自己去查询,跑起来没有任何问题,但是这个写法让我感觉不是特别流畅,可能我自己还没有理解。目前还是只能做到听懂,很难自己完成作业,希望后续能有改并写代码的能力。