深度学习
Miles强
这个作者很懒,什么都没留下…
展开
-
深度学习——09模型的保存:torch.save()、加载:torch.load()
两种方式1、第一种# 保存方式1# 结构模型+模型参数torch.save(vgg16, "vgg16_model1.pth")# 对应保存的方式1model = torch.load("vgg16_model1.pth")print(model)2、第二种# 保存方式2# 保存为字典形式,保存模型参数torch.save(vgg16.state_dict(),"vgg16_model2.pth")# 对应保存的方式2vgg16 = torchvision.model原创 2022-05-16 10:25:20 · 917 阅读 · 0 评论 -
深度学习——08现有网络模型(vgg16)的修改
现有网络模型(vgg16)的修改原创 2022-05-16 10:01:57 · 2144 阅读 · 0 评论 -
深度学习——07 快速搭建神经网络添加损失函数和优化器
深度学习—— 快速搭建神经网络添加损失函数和优化器原创 2022-05-16 09:14:34 · 382 阅读 · 0 评论 -
深度学习——07搭建相对完整的自定义神经网络
深度学习——自己搭建神经网络,在之前的网络上添加损失函数和优化器,行程相对完整的自定义卷积神经网络原创 2022-05-16 08:58:33 · 169 阅读 · 0 评论 -
深度学习——06 torch.nn.Sequential快速搭建神经网络
深度学习——使用torch.nn.Sequential快速搭建神经网络原创 2022-05-15 22:47:36 · 484 阅读 · 0 评论 -
深度学习——05pytorch最大池化的效果(CIFAR10数据集)
深度学习——pytorch最大池化的效果(以CIFAR10数据集为例)原创 2022-05-15 22:15:07 · 87 阅读 · 0 评论 -
深度学习——04pytorch最大池化
最大池化pytorch代码实现,使用torch.nn.MaxPool2d原创 2022-05-15 22:02:20 · 1794 阅读 · 0 评论 -
深度学习——03pytorch卷积的效果(CIFAR10数据集)
深度学习——pytorch卷积的效果(以CIFAR10数据集为例)原创 2022-05-15 21:34:36 · 100 阅读 · 0 评论 -
深度学习—02卷积:torch.nn.Conv2d()和torch.nn.functional.Conv2d()
卷积pytorch代码实现,使用torch.nn.functional.conv2d原创 2022-05-15 16:39:31 · 520 阅读 · 0 评论 -
深度学习——01pytorch自定义网络模型
深度学习,自定义网络模型原创 2022-05-15 15:34:55 · 508 阅读 · 0 评论