CNN中的全连接层学习笔记

  之前学习CNN的时候只记录了卷积层、激励层、池化层。最后的全连接层还没有了解。

参考解释一下全连接层&CNN中全连接层是什么样的_GoodShot的专栏-CSDN博客

全连接层一般会把卷积输出的二位特征图转化成一维的一个向量。为了方便后面的分类和回归。

全连接:输入的神经元和输出的神经元都要连接起来。

输入和输出是通过卷积核连接的,也就是w权重。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
卷积神经网络(Convolutional Neural Network,CNN)是一种常用于图像、音频等数据的深度学习模型。它通过卷积层、池化层等操作,对输入数据进行特征提取,最终输出分类结果。下面是一个简单的CNN学习笔记: ## 1. 卷积层 卷积层是CNN的核心组件之一,它通过滑动一个固定大小的卷积核(filter)在输入数据上进行卷积操作,从而提取出输入数据的局部特征。在卷积操作,卷积核的参数是要被学习的,因此卷积层可以自动学习到对输入数据最有效的特征。 卷积操作的数学定义如下: $$ y_{i,j} = \sum_{m=0}^{k-1} \sum_{n=0}^{k-1} x_{i+m,j+n} \cdot w_{m,n} $$ 其,$x$ 是输入数据,$y$ 是卷积后的输出数据,$w$ 是卷积核。$k$ 是卷积核的大小。在卷积操作,卷积核从左上角开始,每次向右移动一个像素,直到遍历完整张图片,得到卷积后的输出数据。 ## 2. 池化层 池化层是一种用于减少特征图大小的操作。它将输入数据的局部区域进行池化操作,输出一个单一的值。常用的池化操作包括最大池化、平均池化等。 最大池化操作的数学定义如下: $$ y_{i,j} = \max_{m=0}^{k-1} \max_{n=0}^{k-1} x_{i+m,j+n} $$ 其,$x$ 是输入数据,$y$ 是池化后的输出数据。$k$ 是池化的大小。 ## 3. 全连接层 全连接层CNN的输出层,它将卷积层和池化层提取到的特征进行连接,并输出最终的分类结果。在全连接层,每个神经元都与上一层的所有神经元相连接,因此全连接层的参数量很大。 ## 4. Dropout Dropout是一种防止过拟合的技术。在训练过程,Dropout会随机将一部分神经元的输出设置为0,从而强制神经网络学习到更加鲁棒的特征。 ## 5. 损失函数 损失函数是CNN训练过程的关键指标,它用于评估模型的预测结果与真实结果之间的差异。常用的损失函数包括交叉熵损失函数、均方误差损失函数等。 ## 6. 优化器 优化器是用于更新神经网络参数的算法。常用的优化器包括随机梯度下降(SGD)、Adam等。 以上是一个简单的CNN学习笔记,希望对你有所帮助!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值