【深度学习基础】对于模型结构、感受野和复杂度的初步认识

本文介绍了深度学习中的卷积神经网络基础,涵盖输出尺寸计算、感受野概念及其计算、参数量分析以及FLOPs的重要性。通过LeNet-5模型举例,探讨了如何在保持模型效果的同时,通过调整网络结构控制感受野大小和复杂度,以实现更高效的深度学习模型设计。
摘要由CSDN通过智能技术生成

· 有人说,计算无外乎 y = wx + b。
· 控制论的一个角度:非线性模型,往往不可满足可加性,所以我们要将它线性化,尽可能逼近这个模型。
· 我们认为AI看似很容易做到的事情,往往是研究人员多年的目标——向他们致敬。

————————————

一、CNN基础

1、输出尺寸

(1) 卷积层(convolutional layer)

上式的n实际上是输入、输出特征的尺寸。卷积层输出特征的通道数与卷积核的数量相同。

(2) 池化层(pooling layer)
· 池化层单个patch的计算公式同卷积操作;
· 池化层输出的patch数量与输入patch的数量相同。

(3) 全连接层(Full-connected layer)
· 全连接层相当于单层感知器,由于是密集连接,其输出维度可以任意设置。
——————————————

2、感受野(Receptove Field)

· 感受野RF指的是网络当前层输出的特征patch中的一个网络(特征图的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

蔡逸超

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值