1、层和块
为了实现这些复杂的网络,我们引入了神经网络块的概念。 块(block)可以描述单个层、由多个层组成的组件或整个模型本身。使用块进行抽象的一个好处是可以将一些块组合成更大的组件, 这一过程通常是递归的, 通过定义代码来按需生成任意复杂度的块, 我们可以通过简洁的代码实现复杂的神经网络。如下图所示:
2、参数管理
我们首先关注具有单隐藏层的多层感知机
net = nn.Sequential(nn.Linear(4,8),nn.ReLU,nn.Linear(8,1))
print(net[2].state_dict())
state_dict() 函数为一个参数字典如下所示
out:OrderedDict([(‘weight’, tensor([[ 0.0181, 0.0557, 0.0219, -0.3431, 0.1738, -0.0249, 0.1345, -0.2593]])), (‘bias’, tensor([-0.3221]))])
1.1输出目标网络的w和b:
print(net[2].bias.data)
1.2打印偏置值
1.3 从嵌套块收集参数
def block1():
return nn.Sequential(nn.Linear(4, 8), nn.ReLU(), nn.Linear(8, 4),
nn.ReLU())
def block2():
net = nn.Sequential()
for i in range(4):
net.add_module(f'block {i}', block1())
return net
rgnet = nn.Sequential(block2(), nn.Linear(4, 1))
rgnet(X)
net.add_module
1.4内置初始化
def init_normal(m):
if type(m) == nn.Linear:
nn.init.normal_(m.weight, mean=0, std=0.01)
nn.init.zeros_(m.bias)
net.apply(init_normal)
net[0].weight.data[0], net[0].bias.data[0]
对net里面每一个Layer执行该方法:
net.apply(init_normal)
返回各层中参数名称和数据。
print(*[model.named_parameters()
使用例子
print(
"Init",
*[(name, param.shape) for name, param in m.named_parameters()][0])
3、自定义层
3.1自定义一个层,并将该层添加到模型中:
import torch
import torch.nn.functional as F
from torch import nn
class CenteredLayer(nn.Module):
def __init__(self):
super().__init__()
def forward(self, X):
return X - X.mean()
layer = CenteredLayer()
net = nn.Sequential(nn.Linear(8, 128), CenteredLayer())
Y = net(torch.rand(4, 8))
Y.mean()
out:tensor(4.6566e-10, grad_fn=< MeanBackward0 >)
3.2定义一个带参数的层
class MyLinear(nn.Module):
def __init__(self, in_units, units):
super().__init__()
self.weight = nn.Parameter(torch.randn(in_units, units))
self.bias = nn.Parameter(torch.randn(units,))
def forward(self, X):
linear = torch.matmul(X, self.weight.data) + self.bias.data
return F.relu(linear)
linear = MyLinear(5, 3)
linear.weight
4、读写文件
4.1加载和保存张量
import torch
from torch import nn
from torch.nn import functional as F
x = torch.arange(4)
torch.save(x, 'x-file')
x2 = torch.load('x-file')
4.2存储一个张量列表
y = torch.zeros(4)
torch.save([x, y], 'x-files')
x2, y2 = torch.load('x-files')
(x2, y2)
out:(tensor([0, 1, 2, 3]), tensor([0., 0., 0., 0.]))
4.3存储一个张量字典
mydict = {'x': x, 'y': y}
torch.save(mydict, 'mydict')
mydict2 = torch.load('mydict')
mydict2
out:{‘x’: tensor([0, 1, 2, 3]), ‘y’: tensor([0., 0., 0., 0.])}
4.4加载和保存模型参数
net = MLP()
X = torch.randn(size=(2, 20))
Y = net(X)
torch.save(net.state_dict(), 'mlp.params')
实例化了原始多层感知机模型的一个备份。 直接读取文件中存储的参数
clone = MLP()
clone.load_state_dict(torch.load('mlp.params'))
clone.eval()