pytorch中保存网络和提取网络

保存网络:

# 保存全部网络
torch.save(网络, 网络名)
# 只保存网络参数
torch.save(网络.state_dict(), 网络名)
  • 保存整个网络,不需要再搭建结构;只保存网络参数需要在搭建之前一样的网络结构,再将参数放进去。就好比前者是去饭店买来一碗色香俱全的酸菜鱼,后者是老板加什么调料,多少调料,煮多久都告诉你,你回家自己做,做完和直接买来的一样了。
  • 据说只保存网络参数会快一点哦。

提取网络:

# 对应的提取整个网络
torch.load(网络名)
# 对用提取网络参数
网络.load_state_dict(torch.load(网络名))

以之前线性回归代码为例,用保存的网络,比较用两种方法提取的网络

import torch
import matplotlib.pyplot as plt


def save_all_net(net, net_name):
    """保存整个网络"""
    torch.save(net, net_name)


def save_net_parameters(net, net_name):
    """只保存网络中的参数"""
    torch.save(net.state_dict(), net_name)


def restore_net(net_name):
    """提取整个模型"""
    net = torch.load(net_name)
    return net


def restore_parameters(network, net_name):
    """提取网络中的参数"""
    network.load_state_dict(torch.load(net_name))

## 数据
x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=-1)
y = x.pow(2)


def orignal_net():
    """原始网络"""
    net = torch.nn.Sequential(
        torch.nn.Linear(1, 10),
        torch.nn.ReLU(),
        torch.nn.Linear(10, 1)
    )

    optimizer = torch.optim.SGD(net.parameters(), lr=0.05)
    loss_funcation = torch.nn.MSELoss()
    ## 训练
    for epoch in range(100):
        pridect = net(x)
        loss = loss_funcation(pridect, y)

        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

    plt.figure(1, figsize=(10, 3))
    plt.subplot(131)
    plt.title('Net1')
    plt.scatter(x.data.numpy(), y.data.numpy())
    plt.plot(x.data.numpy(), pridect.data.numpy(), 'r-', lw=5)
    # 保存模型
    save_all_net(net, "net.pkl")  # 保存整个模型
    save_net_parameters(net, "net_params.pkl")   # 只保存模型参数


def read_all_net():
    """恢复提取整个的网络"""
    net2 = restore_net("net.pkl")
    pridect = net2(x)

    plt.subplot(132)
    plt.title('Net2')
    plt.scatter(x.data.numpy(), y.data.numpy())
    plt.plot(x.data.numpy(), pridect.data.numpy(), 'r-', lw=5)


def read_parameters():
    """恢复只提取参数的网络"""
    net3 = torch.nn.Sequential(
        torch.nn.Linear(1, 10),
        torch.nn.ReLU(),
        torch.nn.Linear(10, 1),
    )
    restore_parameters(net3, "net_params.pkl")
    pridect = net3(x)

    plt.subplot(133)
    plt.title('Net3')
    plt.scatter(x.data.numpy(), y.data.numpy())
    plt.plot(x.data.numpy(), pridect.data.numpy(), 'r-', lw=5)
    plt.show()


# 主函数
orignal_net()
read_all_net()
read_parameters()
可视化图:证明一样

在这里插入图片描述

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值