目录
前言
这个是按照B站up主的教程学习这方面知识的时候自己做的的笔记和总结,可能有点乱,主要是按照我自己的记录习惯
参考内容来自:
- up主的b站链接:霹雳吧啦Wz视频专辑-霹雳吧啦Wz视频合集-哔哩哔哩视频
- up主将代码和ppt都放在了github:https://github.com/WZMIAOMIAO
- up主的csdn博客:深度学习在图像处理中的应用(tensorflow2.4以及pytorch1.10实现)_太阳花的小绿豆的博客-CSDN博客_深度学习图像处理需要哪些软件
AlexNet网络介绍
本次训练使用数据集——花数据集
下载链接:https://storage.googleapis.com/download.tensorflow.org/example_images/flower_photos.tgz
up主给的存放步骤如下:
因为我是用conda里面自己创建的虚拟环境中的python运行的,所以我自己的实际操作如下:
我自己文件夹的存放路径如下
最后在flower_data中生成如下
使用Pytorch搭建AlexNet并训练
项目目录如下:
|-data_set
|-flower_data
|-flower_photos # 最开始通过链接下载的数据集
|-train # 最开始通过链接下载的数据集通过split_data分成训练集和验证集
|-val
|-split_data.py
|-imageprocessing
|-AlexNet
|-class_indices.json
|-model.py
|-predict.py
|-train.py
|-tulip.jpg # 郁金香图片,预测使用的
model.py
import torch.nn as nn
import torch
class AlexNet(nn.Module): # 创建一个类型AlexNet,继承nn.Module这个父类
def __init__(self, num_classes=1000, init_weights=False):
super(AlexNet, self).__init__()
self.features = nn.Sequential(
nn.Conv2d(3, 48, kernel_size=11, stride=4, padding=2), # input[3, 224, 224] output[48, 55, 55]
nn.ReLU(inplace=True), # inplace 可以理解为pytorch增加计算量降低内存使用量的一种方法,即通过该方法在内存中载入更大的模型
nn.MaxPool2d(kernel_size=3, stride=2), # output[48, 27, 27]
nn.Conv2d(48, 128, kernel_size=5, padding=2), # output[128, 27, 27]
nn.ReLU(inplace=True),
nn.MaxPool2d(kernel_size=3, stride=2), # output[128, 13, 13]
nn.Conv2d(128, 192, kernel_size=3, padding=1), # output[192, 13, 13]
nn.ReLU(inplace=True),
nn.Conv2d(192, 192, kernel_size=3, padding=1), # output[192, 13, 13]