lenet实验结果对比

本文探讨了将平均池化层替换为最大池化层对模型精度的影响,并提出通过调整卷积窗口、通道数、激活函数和学习率等策略提升LeNet性能。同时,强调了现代神经网络设计的趋势,如使用BN防止过拟合,以及全连接层设计的建议。
摘要由CSDN通过智能技术生成

原始结果:
源网络
将第一个平均池化改为最大池化
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
1.将平均池化层替换为最大池化层,会发生什么?
答:损失减小 精度提高
2.尝试构建一个基于LeNet的更复杂的网络,以提高其准确性。
调整卷积窗口大小。
在这里插入图片描述

  • 卷积核改为3*3 最大池化

注意:在设计模型时要清楚每层输出的特征图大小
在这里插入图片描述
注意看这里,来更改全连接层的维度
在这里插入图片描述

  • 3*3卷积核 平均池化
    在这里插入图片描述

调整输出通道的数量。
调整激活函数(如ReLU)。
relu lr=0.1 epoch=90
在这里插入图片描述

调整卷积层的数量。
调整全连接层的数量。

调整学习率和其他训练细节(例如,初始化和轮数)。
学习率=0.1
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
有一点点过拟合

学习建议:

天真:
现在模型设计不是这样做了,一般情况下,激活函数不用sigmoid

天真:
而且在训练过程中会使用BN防止过拟合

天真:
全连接层一般会按照前一层的一半设计,如果接近128,256,512这些值时,可以设计成这样的

天真:
学习率一般不会设计的这么大

天真:
分类模型可以从0.1开始尝试,如果效果不好,可以变成0.01,这样去看哪个学习率合适

天真:
同时batchsize要跟着学习率改变,学习率变小,batch的值可以给大点,让模型多每个batxh多学习些样本

天真:
你可以看13里的那个kaggle的分类

天真:
以那个来学习

天真:
lenet模型问题很多,很多地方都会造成训练出问题

天真:
现代神经网络已经很少使用全连接了,一般都是展平后直接到分类数进行分类

结论:最大池化>平均池化 5*5>3*3 relu>sigmoid 小学习率 高迭代次数

  • 2
    点赞
  • 34
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值