深度学习实践——卷积神经网络实践:裂缝识别

深度学习实践——卷积神经网络实践:裂缝识别

系列实验
深度学习实践——卷积神经网络实践:裂缝识别
深度学习实践——循环神经网络实践
深度学习实践——模型部署优化实践
深度学习实践——模型推理优化练习


代码位于可见于https://download.csdn.net/download/weixin_51735061/88131376?spm=1001.2014.3001.5503

0 概况

方法: 实验主要通过python中的pytorch环境进行,利用了pycharm与jupyter notebook来编写代码。对于数据集,我选择了墙面裂缝数据集。基本模型选择了AlexNet,而高一级模型选择了RestNet50。模型的可视化诊断选择了CAM算法。实验主要通过调整参数的方法来进行。

步骤:

  1. 编辑训练代码与下载数据集
  2. 利用AlexNet模型进行训练并调整参数以取得较好结果
  3. 利用RestNet50模型进行训练并调整参数以取得较好结果
  4. 使用CAM算法进行可视化诊断

1 AlexNet分类

1.1 数据集选取

裂缝是一个建筑物中必有的现象,有些裂缝十分地小,需要放大很多倍才能观看到,而有些裂缝却是十分大以至于肉眼可见。一般来说大裂缝是建筑物损坏的体现,研究建筑物的裂缝具有一定的意义。传统的裂缝发现方法是通过目测进行的,而如今进入了机器学习飞速发展的时代,那么是否可以将裂缝识别交给机器呢?因此此次实验的数据集我选择了与本专业相关的裂缝数据集,数据集文件结构如下图所示。
图1 数据结构
基本上此分类问题为二分类问题,数据集总共提供了5.6万张桥面、墙面、路面带裂缝与不带裂缝的数据集。由于计算机资源有限,我选择了墙面的数据集并对数据进行了平衡处理最后使用了7000张图片进行训练,墙面的部分数据如下图所示。
图2 墙面的部分数据
数据集引用:
https://www.sciencedirect.com/science/article/pii/S2352340918314082

1.2 模型构建

在这里我选择了12年的AlexNet作为卷积神经网络的架构,AlexNet是对LeNet的延伸,如下图为两者的网络架构图。AlexNet相比于LeNet对图片的尺寸进行了提高,同时加多了三个卷积层,同时网络复杂度均有所提高。
图3 AlexNet与LeNet网络结构(图片转载于https://en.wikipedia.org/wiki/AlexNet)
对于AlexNet我直接选择了pytorch里的AlexNet模型,开始时我选择了带有pretrained权重的模型,但是后面发现pretrained对训练出来的结果不利所以将pretrained改为了False其导入方式如下:

import torchvision.models as models

my_alexnet = models.alexnet(pretrained=False)

由于alexnet默认输出的有1000个种类,而裂缝数据集只有两个类别,所以需要首先更改alexnet的输出类别,其更改方式如下:
由于alexnet默认输出的有1000个种类,而裂缝数据集只有两个类别,所以需要首先更改alexnet的输出类别,其更改方式如下:

# 定位输出层位置
n_inputs = my_alexnet.classifier[6].in_features
# 输出两个种类
last_layer = nn.Linear(n_inputs, 2)
my_alexnet.classifier[6] = last_layer

微调好alexnet后,对图像进行预处理首先先修改图像的尺寸以符合模型要求,然后对图像进行裁剪进行标准化处理等。在预处理完后,剩下的就是参数调整,包括学习率、迭代次数、优化器、损失函数等等,以及结果可视化。为了更好地调整参数与可视化结果,我在本人上学期大作业的代码基础上进行了调整,得到的程序的功能图如下。
在这里插入图片描述
程序的构成主要如下类图所示
在这里插入图片描述

1.3 超参数调整

1 基础超参数

epochs为50,batch_size为32,学习率为0.1,优化器为SGD优化器,损失函数为交叉熵。基础参数训练出来的结果如下:

  • 损失曲线

    损失曲线指的是在不同epochs次数时对应的损失指,这里的损失值是训练集的损失值。下图为损失曲线图。
    在这里插入图片描述

  • 准确率、精确率、召回率、F1值
    这里的准确率、精确率、召回率、F1值指的是测试集的值,这里的测试集从7000张数据集中产生。一开始时将完整的数据集以4:1的比例分为了两份,占比为4的为训练集,为1的是测试集。测试集不参与训练的过程,所以训练出来的模型对测试集进行预测的结果具有一定的评价意义,而下面即是结果图。
    在这里插入图片描述

  • 部分预测图像
    部分预测图像是指训练出来的模型对测试集进行预测后打上标签的图像,这里取了20张进行展示,其中标红的表示识别错误,标绿的表示识别正确。在这里插入图片描述

2 改变Epoch次数
查阅资料后发现,epoch次数与训练的结果具有很大的联系,因为epoch的次数越大梯度下降的次数也就越多那么权重更新地幅度也应该越大。一般来说epoch次数越大其拟合效果会越好,但是同时epoch若超过一定的范围会照成过拟合。由于epoch对结果的影响较大,所以此处选择了epoch次数作为调整的超参数之一,以下为epoch次数分别为25、50、75、100的调整结果:

  • 损失曲线
    在这里插入图片描述
    对比不同epoch次数的曲线图可以知道,随着epoch次数的增加其损失值也会随之减小,但是其减小的速率也随着次数的增加而减小。

  • 准确率、精确率、召回率、F1值
    在这里插入图片描述
    从上图可知在epoch次数为25时准确率是比较小的,而在50及以上时准确率得到了一定的提升。这说明epoch次数在一定范围内越大会使得准确率越高。然而当次数达到50以后准确率的提高不大,甚至出现了降低的现象,个人认为这可能与模型以及其他参数存在关系。而可能是这些关系阻止了准确率再次得到较大的提升。

3 改变batch size
batch_size对模型的稳定性具有一定的影响,batch_size越大其稳定性会越好训练时间也会较短,但是如果超出一定范围会使得模型的泛化能力下降。而如果batch_size较小那么就会使得梯度下降的稳定性较差让随机性越大,模型效果也会较差。由于batch_size对模型有一定的影响,所以这里我选择了batch_size作为调整的超参数之一。将batch_size分为16、32、48、64四组进行调整,其结果如下:

  • 损失曲线
    在这里插入图片描述
    由图像可知随着batch size的增加,损失值也会跟着减小。这可能是由于一批的数量再不断变大而使得训练的效果更好。而图中出现批数大小越大使得曲线越不稳定的现象其实是因为刻度范围的问题,而这也可以看出batch size越大那么其一开始的损失值就会越小。
  • 准确率、精确率、召回率、F1值
    在这里插入图片描述
    由上图结果可知,效果最好的出现再batsize为16的时候,而按照理论上说应该batch size较大的效果会比较好,然而这里却出现了相反的现象,当batch size达到64时其效果是最差的。这可能与batch size较大时的泛化能力较差有关。

4 改变学习率
学习率对模型的收敛具有一定的影响,一般来说学习率越大模型收敛就会越快。然而如果学习率过大,那么也会造成不利的影响,因为过大会使得下降得过快而使得模型走歪路而很难找到正确的道路。现在将学习率分为1、0.1、0.01、0.001四组进行调整,其结果如下:

  • 损失曲线
    在这里插入图片描述从上图可以看出,当学习率较大时比如上面的1,那么训练时埋得步长也越大,其损失值下降也越快,但是同时也会因为这样而走错了道路,使得不断折返而不断在一个损失值范围内,而无法再往低处走。而当学习率较小时,其曲线会较为平缓,但同时速度也会较慢。

  • 准确率、精确率、召回率、F1值
    在这里插入图片描述
    从上面的结果可以看出学习率过大与过小都是不好的,只有再一定范围内才是较好的选择。

2 RestNet50分类

2.1 模型构建

鉴于RestNet50的网络结构更复杂,深度更深,其效果理论上会越好,所以我选择了RestNet50作为高一级的模型于AlexNet进行比较。对于RestNet我直接使用了Pytorch进行调取,下面为调取的代码,

my_resnet50 = models.resnet50(pretrained=True)

# 将resnet50最后一层输出的类别数,改为ant-bee数据集的类别数,修改后改成梯度计算会恢复为默认的True
fc_inputs = my_resnet50.fc.in_features
my_resnet50.fc = nn.Sequential(nn.Linear(fc_inputs, len(self.classes)))
# 以上操作相当于固定网络全连接层之前的参数,只训练全连接层的参数

其中对其输出层进行了修改以符合数据集的特征。

2.2 超参数调整

为了与alexnet形成对比,所以超参数的调整也与alexnet的一致。

1 基础超参数:
epochs为50,batch_size为32,学习率为0.1,优化器为SGD优化器,损失函数为交叉熵。基础参数训练出来的结果如下:

  • 损失曲线
    在这里插入图片描述

  • 准确率、精确率、召回率、F1值
    在这里插入图片描述

  • 部分预测图像
    部分预测图像是指训练出来的模型对测试集进行预测后打上标签的图像,这里取了20张进行展示,其中标红的表示识别错误,标绿的表示识别正确。

2 改变Epoch次数

  • 损失曲线
    在这里插入图片描述
    从上面的损失曲线图可知,随着Epoch次数的增加其损失值也会越小,其结果基本与AlexNet一致。
  • 准确率、精确率、召回率、F1值
    在这里插入图片描述
    由上面结果可知,随着epoch的增加其准确率也会越高,但是当到达一定值后准确率却会降低。

3 改变Batchsize

  • 损失曲线
    在这里插入图片描述

  • 准确率、精确率、召回率、F1值
    在这里插入图片描述

4 改变学习率

  • 损失曲线
    在这里插入图片描述

  • 准确率、精确率、召回率、F1值
    在这里插入图片描述

2.3 AlexNet与RestNet50的比较

在基础超参数的情况下,将resnet-50与alexnet进行比较,其结果如下:

  • 损失曲线
    在这里插入图片描述
    可以看到AlexNet所对应的损失值较小,都是收敛未完全,而RestNet损失值却很大,收敛较快但是稳定性较差。
  • 准确率、精确率、召回率、F1值
    在这里插入图片描述
    可以看到作为高级模型的resnet与alexnet对比相差不多,甚至resnet还差于alexnet。而除去基础超参数,在epoch为75时存在restnet准确率为0.8的,这也可能是基础超参数情况下resnet的参数并不太好照成了这种现象。然而观察两个模型的结果可以发现,其准确率一直都是很低的,当一开始使用alexnet时认为这可能与alexnet模型有关,但是当使用restnet这个更高级的神经网络时其结果变化不大还是很低,那么其原因可能出现与其他原因。首先应该可以排除基本的参数原因,因为参数都以不同的数值进行调试,但是其结果均不是很好。因此我从数据集中寻找原因,观察预测的数据如下所示,
    在这里插入图片描述
    可以发现判断错误的一般都是将裂缝墙体判断为无裂缝的,而仔细观察图像可以发现,判断无裂缝错误的裂缝图像的裂缝都是十分小的。甚至人眼判别都难以判别,而对于机器可能这也是其难度之一,因此造成了准确率整体偏低的现象。在发现此问题后,我观察了路面裂缝的数据集,发现其比墙面裂缝数据集较为好识别,所以我将两者在基础参数的前提下重新进行了训练,得到以下的结果:
    在这里插入图片描述
    在这里插入图片描述
    可以看到道路裂缝的准确率可以达到90%,确实比墙面的高很多,而这也证明了墙面数据集存在一定的问题。

3. 模型可视化诊断——grad_cam算法

对于模型的可视化诊断我选择了梯度权重激活图算法grad-cam,此算法能够反映出模型内部主要是靠识别哪个位置来进行分类的,也就是其注重点是如何。为了检测模型是否注意正确,现了选取三张图片,分别用前面的基本超参数下的AlexNet与ResNet对其进行预测然后对其使用Grad_CAM算法生成类激活图。下面为算法生成的结果:
在这里插入图片描述
理论上来说若要识别裂缝,那么注重点肯定是在裂缝处的。而从上图可以看到,restnet50模型的CAM图明显优于alexnet的,restnet的集中位置更靠近于裂缝中,而alexnet却只是在裂缝中徘徊并未完全地对准裂缝。虽然得到的模型中两者的准确率基本差不多,但是restnet的精确性更加地好。

实验结论:

本次实验中构建了AlexNet和RestNet网络模型对裂缝数据集进行训练,并调整超参数以达到较好效果。两个网络模型的测试结果表明其在调整一系列参数如学习率、epoch次数、batchsize后准确率依然在0.7到0.8中徘徊,效果并不佳。而在比较参数为不同值的调整时,发现其规律基本与理论相符合,比如说学习率在某个范围内才是最优的。最后在利用grad_cam算法对模型进行可视化诊断时发现restnet50对裂缝的注意程度优于alexnet的,restnet50的注意点集中于裂缝处,而alexnet却只是在裂缝附近。
对于模型训练出来的效果较差,个人认为这可能与数据集有关。在观察数据集后发现,墙面裂缝的数据集的裂缝并不明显甚至人眼也难以观测出来。于是我选用了较为明显的道路裂缝数据集以检验我的想发是否正确。在经过测试后,发现路面裂缝数据集训练出来的模型准确率可以达到0.85-0.9之间,而这也说明了这确实与数据集有一定关系。

  • 7
    点赞
  • 36
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 以下是一个简单的 Matlab 深度学习卷积神经网络图片分类预测裂缝走向的代码示例: ```matlab % 加载数据集 imds = imageDatastore('path/to/images', ... 'IncludeSubfolders',true,'LabelSource','foldernames'); % 划分训练集和测试集 [imdsTrain,imdsTest] = splitEachLabel(imds,0.7,'randomized'); % 定义卷积神经网络 layers = [ imageInputLayer([64 64 3]) convolution2dLayer(3,16,'Padding','same') batchNormalizationLayer reluLayer maxPooling2dLayer(2,'Stride',2) convolution2dLayer(3,32,'Padding','same') batchNormalizationLayer reluLayer maxPooling2dLayer(2,'Stride',2) convolution2dLayer(3,64,'Padding','same') batchNormalizationLayer reluLayer fullyConnectedLayer(2) softmaxLayer classificationLayer]; % 定义训练选项 options = trainingOptions('adam', ... 'MaxEpochs',10, ... 'MiniBatchSize',32, ... 'ValidationData',imdsTest, ... 'ValidationFrequency',30, ... 'Verbose',false, ... 'Plots','training-progress'); % 训练卷积神经网络 net = trainNetwork(imdsTrain,layers,options); % 测试卷积神经网络 YPred = classify(net,imdsTest); YTest = imdsTest.Labels; accuracy = sum(YPred == YTest)/numel(YTest); % 预测新数据 im = imread('path/to/new/image.jpg'); im = imresize(im,[64 64]); label = classify(net,im); ``` 请注意,这只是一个简单的示例代码,您需要根据您的数据集和任务进行相应的修改和调整。 ### 回答2: 在MATLAB中,可以使用深度学习工具箱 (Deep Learning Toolbox) 来训练卷积神经网络 (Convolutional Neural Network, CNN) 进行图片分类预测裂缝走向。 首先,需要准备一批裂缝图片的数据集,可以包含正常状态和不同走向的裂缝图片。数据集应该被分成训练集和测试集两部分。 接下来,可以使用MATLAB的图像预处理工具来对图像进行预处理步骤,如调整大小、转换为灰度图等。 然后,可以定义并训练卷积神经网络模型。可以使用MATLAB的命令行界面或创建一个.m文件来定义模型结构。在模型中,可以包含卷积层、池化层、全连接层等。设置好模型结构后,可以调用训练函数 (trainNetwork) 来进行网络训练。训练函数会根据输入的数据集和训练参数来不断调整模型参数,以使其能够做出准确的裂缝走向预测。训练过程可能需要一定的时间,具体时间取决于数据集的大小和模型复杂度。 在模型训练完成后,可以使用测试集数据来评估模型的性能。可以调用评估函数 (classify) 来进行分类预测,并根据预测结果与真实标签进行比较,计算准确率、召回率等性能指标。 最后,可以使用训练好的模型来进行裂缝走向预测。可以将新的裂缝图片输入到训练好的模型中,并使用预测函数 (predict) 来得到预测结果。 需要指出的是,网络结构的设计、训练参数的选择以及数据集的质量都会影响到最终的预测结果。因此,在实际应用中,需要不断调整和优化模型和训练参数,以获得更好的预测性能。 ### 回答3: 要使用MATLAB进行深度学习卷积神经网络的图片分类预测裂缝走向,需要按照以下步骤进行: 1. 数据准备:首先,需要准备用于训练和测试的图像数据集。这些图像应包含不同类型的裂缝样本和非裂缝样本。确保每个图像都有相应的标签,指示它是属于裂缝还是非裂缝。将数据集划分为训练集和测试集。 2. 神经网络模型设计:使用MATLAB的深度学习工具箱中的卷积神经网络设计模型。可以选择使用预训练模型,如AlexNet、VGG或ResNet,也可以从头开始设计自己的模型。注意模型应具有适当数量的卷积层、池化层和全连接层,以及适当的激活函数和损失函数。 3. 数据预处理:使用MATLAB进行数据预处理,包括图像增强、归一化和数据增强等。这些步骤可以提高模型的性能和鲁棒性。 4. 模型训练:使用准备好的训练集对卷积神经网络进行训练。在每个训练周期中,通过前向传播和反向传播调整权重和偏差,以最小化损失函数。可以使用MATLAB的训练选项来指定训练参数,例如学习率、迭代次数和批处理大小。 5. 模型评估:使用测试集评估训练好的模型的性能。通过计算预测精度、召回率和F1分数等指标来衡量模型的性能。可以使用MATLAB的深度学习工具箱中的函数来计算这些指标。 6. 模型预测:使用训练好的模型对新的图像进行预测。将新图像输入到模型中,通过前向传播计算输出,并将其解释为裂缝走向的类别概率。可以选择设定一个阈值,将概率转为二进制标签(裂缝或非裂缝)。 以上是使用MATLAB进行深度学习卷积神经网络图片分类预测裂缝走向的大致步骤。在实际操作中,可能需要进行参数调整、优化和模型改进以获得更好的预测结果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值