【深度学习】深度学习实验三——二维卷积实验、超参数对比分析(包括卷积层数、卷积核大小、batchsize、lr等)、经典模型AlexNet、空洞卷积实验、dilation、残差网络实验、退化、残差块

该博客详细记录了一次深度学习实验,包括二维卷积、空洞卷积和残差网络的实现与分析。实验中,作者对比了不同卷积层数、卷积核大小、batchsize、lr等超参数的影响,并介绍了AlexNet模型。空洞卷积部分展示了其在不增加参数量的同时扩大感受野的优势。最后,实验还探讨了残差网络解决深度退化问题的机制。
摘要由CSDN通过智能技术生成

一、实验内容

实验内容包含要进行什么实验,实验的目的是什么,实验用到的算法及其原理的简单介绍。

1.1 二维卷积实验

(1)手写二维卷积的实现,并在至少一个数据集上进行实验,从训练时间、预测精度、Loss变化等角度分析实验结果(最好使用图表展示)
(2)使用torch.nn实现二维卷积,并在至少一个数据集上进行实验,从训练时间、 预测精度、Loss变化等角度分析实验结果(最好使用图表展示)。
(3)不同超参数的对比分析(包括卷积层数、卷积核大小、batchsize、lr等)选其中至少1-2个进 行分析。
(4)使用PyTorch实现经典模型AlexNet并在至少一个数据集进行试验分析 (平台 课同学选做,专业课同学必做)(无GPU环境则至少实现模型)。
原理介绍:在图像处理中,卷积经常作为特征提取的有效方法。给定一个输入信息 𝑿 和滤波器 𝑾 的二维卷积定义为:
𝒀 = 𝑾 ∗ 𝑿 公式(1)
其中 ∗ 表示二维卷积运算。

1.2 空洞卷积实验

(1)使用torch.nn实现空洞卷积,要求dilation满足HDC条件(如1,2,5)且要堆叠多层并在至少一个数据集上进行实验,从训练时间、预测精度、Loss 变化等角度分析实验结果(最好使用图表展示)。
(2

  • 10
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

沐风—云端行者

喜欢请打赏,感谢您的支持!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值