【Pytorch深度学习实战】(1)Pytorch基础知识

🔎大家好,我是Sonhhxg_柒,希望你看完之后,能对你有所帮助,不足请指正!共同学习交流🔎

📝个人主页-Sonhhxg_柒的博客_CSDN博客 📃

🎁欢迎各位→点赞👍 + 收藏⭐️ + 留言📝​

📣系列专栏 - 机器学习【ML】 自然语言处理【NLP】  深度学习【DL】

 🖍foreword

✔说明⇢本人讲解主要包括Python、机器学习(ML)、深度学习(DL)、自然语言处理(NLP)等内容。

如果你对这个系列感兴趣的话,可以关注订阅哟👋

import torch 
import torchvision
import torch.nn as nn
import numpy as np
import torchvision.transforms as transforms

1. 基本 autograd 示例

# 创建张量。
x = torch.tensor(1., requires_grad=True)
w = torch.tensor(2., requires_grad=True)
b = torch.tensor(3., requires_grad=True)

# 构建计算图。
y = w * x + b    # y = 2 * x + 3

# 计算梯度。
y.backward()

# P打印出梯度变化grad。
print(x.grad)    # x.grad = 2 
print(w.grad)    # w.grad = 1 
print(b.grad)    # b.grad = 1 
# 创建形状为 (10, 3) 和 (10, 2) 的张量。
x = torch.randn(10, 3)
y = torch.randn(10, 2)

# 构建一个全连接层。
linear = nn.Linear(3, 2)
print ('w: ', linear.weight)
print ('b: ', linear.bias)

# 构建损失函数和优化器。
criterion = nn.MSELoss()
optimizer = torch.optim.SGD(linear.parameters(), lr=0.01)

# 前向传播
pred = linear(x)

# 计算损失
loss = criterion(pred, y)
print('loss: ', loss.item())

# 后向传播
loss.backward()

# 打印出w和b的grad
print ('dL/dw: ', linear.weight.grad) 
print ('dL/db: ', linear.bias.grad)

# 1-step 梯度下降
optimizer.step()

# 你也可以在低层执行梯度下降。
# linear.weight.data.sub_(0.01 * linear.weight.grad.data)
# linear.bias.data.sub_(0.01 * linear.bias.grad.data)

# 打印 1-step 梯度下降后的损失。
pred = linear(x)
loss = criterion(pred, y)
print('loss after 1 step optimization: ', loss.item())

2. 从 numpy 加载数据 

# 创建一个numpy数组。
x = np.array([[1, 2], [3, 4]])

# 将 numpy 数组转换为 Torch 张量。
y = torch.from_numpy(x)

# 将 Torch 张量转换为 numpy 数组。
z = y.numpy()

3.输入管道

# 下载并构建 CIFAR-10 数据集。
train_dataset = torchvision.datasets.CIFAR10(root='../../data/',
                                             train=True, 
                                             transform=transforms.ToTensor(),
                                             download=True)

# 获取一对数据(从磁盘读取数据)。
image, label = train_dataset[0]
print (image.size())
print (label)

# 数据加载器(以非常简单的方式提供队列和线程)。
train_loader = torch.utils.data.DataLoader(dataset=train_dataset,
                                           batch_size=64, 
                                           shuffle=True)

# 当迭代开始时,队列和线程开始从文件中加载数据。
data_iter = iter(train_loader)

# 小批量图像和标签。
images, labels = data_iter.next()

# 数据加载器的实际使用如下。
for images, labels in train_loader:
    # Training code should be written here.
    pass

4. 自定义数据集的输入管道 

# 你应该如下构建你的自定义数据集。
class CustomDataset(torch.utils.data.Dataset):
    def __init__(self):
        # TODO
        # 1. 初始化文件路径或文件名列表。
        pass
    def __getitem__(self, index):
        # TODO
        # 1. 从文件中读取一个数据(例如使用numpy.fromfile、PIL.Image.open)。
        # 2. 预处理数据(例如torchvision.Transform)。
        # 3. 返回一个数据对(例如图像和标签)
        pass
    def __len__(self):
        # 您应该将 0 更改为数据集的总大小。
        return 0 

# 然后您可以使用预构建的数据加载器。
custom_dataset = CustomDataset()
train_loader = torch.utils.data.DataLoader(dataset=custom_dataset,
                                           batch_size=64, 
                                           shuffle=True)

5. 预训练模型 

# 下载并加载预训练的 ResNet-18。
resnet = torchvision.models.resnet18(pretrained=True)

# 如果只想微调模型的顶层,设置如下。
for param in resnet.parameters():
    param.requires_grad = False

# 替换顶层进行微调.
resnet.fc = nn.Linear(resnet.fc.in_features, 100)  # 100 is an example.

# 前向传播
images = torch.randn(64, 3, 224, 224)
outputs = resnet(images)
print (outputs.size())     # (64, 100)

6. 保存并加载模型

# 保存并加载整个模型。
torch.save(resnet, 'model.ckpt')
model = torch.load('model.ckpt')

# 仅保存和加载模型参数(推荐)。
torch.save(resnet.state_dict(), 'params.ckpt')
resnet.load_state_dict(torch.load('params.ckpt'))

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Sonhhxg_柒

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值