【AI】《动手学-深度学习-PyTorch版》笔记(十七):卷积神经网络入门

106 篇文章 67 订阅 ¥69.90 ¥99.00
本文介绍了从全链接层到卷积的转变原因,阐述了卷积神经网络的基础概念,包括卷积、互相关运算、卷积核、图像卷积、填充、步幅、计算输出张量大小以及通道的概念。还探讨了1X1卷积层的作用,并讲解了汇聚/池化层,包括最大池化和平均池化。
摘要由CSDN通过智能技术生成

AI学习目录汇总

1、从全链接层到卷积

1.1 卷积

我们在前面学习的多层感知机中,已经认识了全链接层,缺点很明显,在稍微大点的网络模型中,参数成指数级别增长。参数量很快就达到数十亿,这样的量级几乎无法计算。为此科学家们想出一个减少参数的方法:卷积。

从全链接层到卷积的推论,使用如下两个原则:

  • 平移不变性(translation invariance):不管检测对象出现在图像中的哪个位置,神经网络的前面几层应该对相同的图像区域具有相似的反应,即为“平移不变性”。
  • 局部性(locality):神经网络的前面几层应该只探索输入图像中的局部区域,而不过度在意图像中相隔较远区域的关系,这就是“局部性”原则。最终,可以聚合这些局部特征,以在整个图像级别进行预测。

(本人的理解)如果已经了解过什么是卷积核,可以这样理解上面的两个原则:

  • 卷积核
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

郭老二

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值