数字图像处理:GoogleNet代码(pytorch)之train.py解读

本文详细解读了使用PyTorch实现GoogleNet模型的训练过程,包括数据预处理、训练与测试数据集的处理、数据集的加载、分类处理以及模型训练的关键参数设置。在数据预处理中,涉及随机裁剪、翻转和标准化等步骤,以增强数据并避免数值不平衡的影响。此外,还介绍了如何将分类索引保存为JSON文件,以便于后期处理。整个训练过程采用32批次大小,利用GPU或CPU资源,并利用辅助分类器提升模型性能。
摘要由CSDN通过智能技术生成

解释顺序就是代码阅读顺序

训练数据集处理:

1.device = torch.device()->调用GPU还是CPU进行训练

2.传入参数其实是一个判断函数:cuda:0" if torch.cuda.is_available() else "cpu"-》如果有GPU使用GPU进行计算训练,否则使用CPU。

3.预处理函数:transforms.Compose()

4.transforms.RandomResizedCrop(224)-》随机裁剪,裁剪到224x224大小。

5.transforms.RandomHorizontalFlip()-》随机翻转,数据增强一种方法,这里是水平翻转。

6.transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))]),-》标准化处理,防止突出数值较高的指标在综合分析中的作用。

测试数据集处理:

1.transforms.Resize((224, 224)),-》强制转化为224x224.

2. transforms.ToTensor(),->转化为张量。

3.transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])}-》标准化处理,防止突出数值较高的指标在综合分析中的作用。

获取数据集:

1.data_root = os.path.abspath()-》获取数据集所在根目录

2.os.getcwd()-》获取当前所在文件的目录

3.os.path.join()-》将传入两个路径连接在一起

4."../.."-》表示返回上上一层目录

5.data_root + "/data_set/flower_data/"-》再从根目录开始向下进行完整目录的拼接。

6.datasets.ImageFolder()-》这个函数加载数据集

7.root=image_path + "/train"-》传入训练集数据路径

8.transform=data_transform["train"]-》调用训练数据集预处理模块,即:

 "train": transforms.Compose([transforms.RandomResizedCrop(224),
                                 transforms.RandomHorizontalFlip(),
                                 transforms.ToTensor(),
                                 transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))]),
 

分类处理:

1.train_dataset.class_to_idx-》通过这个获取分类名称对应索引。

2.cla_dict = dict((val, key) for key, val in flower_list.items()) -》循环遍历数组索引核值

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值