【动手学深度学习】16.PyTorch 神经网络基础

1、层和块

为了实现这些复杂的网络,我们引入了神经网络块的概念。 块(block)可以描述单个层、由多个层组成的组件或整个模型本身。使用块进行抽象的一个好处是可以将一些块组合成更大的组件, 这一过程通常是递归的, 通过定义代码来按需生成任意复杂度的块, 我们可以通过简洁的代码实现复杂的神经网络。如下图所示:
在这里插入图片描述

2、参数管理

我们首先关注具有单隐藏层的多层感知机

net = nn.Sequential(nn.Linear(4,8),nn.ReLU,nn.Linear(8,1))
print(net[2].state_dict()) 

state_dict() 函数为一个参数字典如下所示
out:OrderedDict([(‘weight’, tensor([[ 0.0181, 0.0557, 0.0219, -0.3431, 0.1738, -0.0249, 0.1345, -0.2593]])), (‘bias’, tensor([-0.3221]))])

1.1输出目标网络的w和b:
print(net[2].bias.data)
1.2打印偏置值
1.3 从嵌套块收集参数
def block1():
    return nn.Sequential(nn.Linear(4, 8), nn.ReLU(), nn.Linear(8, 4),
                         nn.ReLU())

def block2():
    net = nn.Sequential()
    for i in range(4):
        net.add_module(f'block {i}', block1())
    return net

rgnet = nn.Sequential(block2(), nn.Linear(4, 1))
rgnet(X)
net.add_module
1.4内置初始化
def init_normal(m):
    if type(m) == nn.Linear:
        nn.init.normal_(m.weight, mean=0, std=0.01)
        nn.init.zeros_(m.bias)

net.apply(init_normal)
net[0].weight.data[0], net[0].bias.data[0]

对net里面每一个Layer执行该方法:

net.apply(init_normal)

返回各层中参数名称和数据。

print(*[model.named_parameters()

使用例子

print(
            "Init",
            *[(name, param.shape) for name, param in m.named_parameters()][0])

3、自定义层

3.1自定义一个层,并将该层添加到模型中:
import torch
import torch.nn.functional as F
from torch import nn

class CenteredLayer(nn.Module):
    def __init__(self):
        super().__init__()

    def forward(self, X):
        return X - X.mean()

layer = CenteredLayer()
net = nn.Sequential(nn.Linear(8, 128), CenteredLayer())

Y = net(torch.rand(4, 8))
Y.mean()

out:tensor(4.6566e-10, grad_fn=< MeanBackward0 >)

3.2定义一个带参数的层
class MyLinear(nn.Module):
    def __init__(self, in_units, units):
        super().__init__()
        self.weight = nn.Parameter(torch.randn(in_units, units))
        self.bias = nn.Parameter(torch.randn(units,))

    def forward(self, X):
        linear = torch.matmul(X, self.weight.data) + self.bias.data
        return F.relu(linear)

linear = MyLinear(5, 3)
linear.weight

4、读写文件

4.1加载和保存张量
import torch
from torch import nn
from torch.nn import functional as F

x = torch.arange(4)
torch.save(x, 'x-file')

x2 = torch.load('x-file')

4.2存储一个张量列表

y = torch.zeros(4)
torch.save([x, y], 'x-files')
x2, y2 = torch.load('x-files')
(x2, y2)

out:(tensor([0, 1, 2, 3]), tensor([0., 0., 0., 0.]))

4.3存储一个张量字典

mydict = {'x': x, 'y': y}
torch.save(mydict, 'mydict')
mydict2 = torch.load('mydict')
mydict2

out:{‘x’: tensor([0, 1, 2, 3]), ‘y’: tensor([0., 0., 0., 0.])}

4.4加载和保存模型参数

net = MLP()
X = torch.randn(size=(2, 20))
Y = net(X)
torch.save(net.state_dict(), 'mlp.params')
实例化了原始多层感知机模型的一个备份。 直接读取文件中存储的参数
clone = MLP()
clone.load_state_dict(torch.load('mlp.params'))
clone.eval()
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
动手深度pytorch.pdf》是一本关于深度习和PyTorch框架的习教材。它由苏剑林等人编写,以PyTorch作为工具,全面介绍了深度习的基本原理和应用。该教材主要分为6个部分,包括深度基础、计算机视觉、自然语言处理、生成对抗网络、深度强化习和工作实践。通过大量的例子和实践,读者可以深入理解深度习的核心概念以及如何使用PyTorch实现深度习模型。 首先,教材通过深度基础部分介绍了神经网络的基本原理、损失函数、优化算法等核心知识。接着,计算机视觉部分详细解释了图像分类、目标检测、图像风格转换等任务的实现方法。在自然语言处理部分,教材展示了如何用深度习模型进行文本分类、语义理解等任务。生成对抗网络部分讲解了生成模型、判别模型和生成对抗训练等关键概念。深度强化习部分介绍了如何使用深度习与强化习相结合解决控制问题。最后的工作实践部分通过实际场景案例,指导读者如何将深度习应用到实际项目中。 《动手深度pytorch.pdf》内容详实,既有理论知识又有实际应用的案例,适合既想理解深度习基本原理又想动手实践的读者。无论是初者还是有一定基础习者,都可以通过这本教材系统地习深度习和PyTorch。总之,这本教材是习深度习的一本宝典,可以帮助读者快速入门并深入掌握深度习和PyTorch的使用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值