神经网络基础结构

1. 神经网络

在神经网络中,每个神经元都有一个与之关联的权重和偏置,它们用于计算神经元的输出值。神经元接收来自上一层神经元的输入,并将这些输入与权重相乘并加上偏置,然后通过激活函数进行非线性处理,最终产生输出值。
在这里插入图片描述

  1. 输入层(Input Layer):输入层是神经网络接收外部输入数据的地方。每个输入层节点代表输入数据的一个特征或属性。例如,对于图像分类任务,每个输入节点可以表示图像中的像素值。
  2. 隐藏层(Hidden Layers):隐藏层位于输入层和输出层之间,用于处理输入数据并提取特征。神经网络可以有一个或多个隐藏层,这取决于网络的复杂程度。每个隐藏层由多个神经元(节点)组成,每个神经元接受来自前一层的输入,并通过权重和激活函数处理输入。
  3. 输出层(Output Layer):输出层是神经网路产生结果的地方。每个输出节点对应于网络的一个输出类别或预测结果。例如,在图像分类任务中,每个输出节点可以表示一种可能的类别。

2. 卷积神经网络(CNN)

与传统神经网络区别:
在这里插入图片描述

在这里插入图片描述
卷积层(Convolutional Layer):在卷积层中,有一组可学习的滤波器(也称为卷积核),每个滤波器都是一个小的二维矩阵。这些滤波器通过对输入数据进行卷积操作,可以提取出不同的特征。卷积操作是通过将滤波器与输入数据的局部区域进行逐元素相乘,并将结果相加得到特征图的过程。
卷积层的主要功能包括:

  • 特征提取:通过对输入数据进行卷积操作,提取出不同的特征,如边缘、纹理等。

  • 参数共享:卷积层中的每个滤波器都使用相同的权重参数对输入数据进行卷积操作,从而减少了参数数量,降低了模型复杂度。

  • 平移不变性:卷积操作具有平移不变性,即无论物体在图像中的位置如何变化,卷积操作都能够识别出相同的特征。

    通过堆叠多个卷积层,神经网络可以逐渐提取出越来越抽象和高级的特征,从而实现对复杂数据的表征和分类。卷积层的引入极大地提升了神经网络在图像处理等领域的性能和应用范围。

在这里插入图片描述
其中W1、H1表示输入的宽度、长度;W2、H2表示输出特征图的宽度、长度;
F表示卷积核长和宽的大小;S表示滑动窗口的步长;P表示边界填充(加几圈0)。
在这里插入图片描述
在这里插入图片描述
池化层(Pooling Layer):池化层是卷积神经网络(CNN)中的一个重要组成部分,用于减少数据维度并保留最显著的特征。它通常紧跟在卷积层之后,有助于提高网络的计算效率和泛化能力。
池化层的主要功能包括:

  • 下采样:池化层通过将输入数据进行下采样,即减少数据的尺寸和维度。这样可以大幅降低网络的参数量,减少计算复杂度,并提高模型训练和推理的效率。
  • 特征选择:通过池化操作,池化层会选择输入数据中最显著的特征,并保留其相对位置关系。这有助于提取出最重要的特征,并且使得网络具有一定程度的平移不变性和局部不变性。
  • 降噪:在某些情况下,池化层可以帮助降低输入数据中的噪声和冗余信息,提高模型的鲁棒性和泛化能力。

常见的池化操作包括最大池化和平均池化。最大池化从输入数据的局部区域中选择最大值作为输出,而平均池化则计算输入数据局部区域的平均值作为输出。最大池化更常用,因为它能够更好地保留输入数据的显著特征。

通过交替堆叠多个卷积层和池化层,CNN能够逐渐提取出抽象和高级的特征,并在全连接层中进行进一步的处理和分类。池化层的引入不仅有效地减少了计算量,还有助于提高网络对位置和尺度变化的鲁棒性,使得CNN在图像处理、物体识别等任务中表现出色。

在这里插入图片描述

全连接(Fully Connected Layer):全连接层也称为密集连接层或输出层,是神经网络中的一种常见层类型。它通常位于卷积层和池化层之后,负责将前面层的特征进行扁平化并与权重进行全连接操作。

在全连接层中,每个神经元都与前一层的所有神经元相连。这意味着每个神经元都接收来自前一层所有神经元的输入,并通过权重进行处理。全连接层的每个神经元都有其独立的权重参数,这些参数将在训练过程中进行学习和更新。

全连接层的主要功能包括:

  • 特征组合:全连接层能够将前面层提取到的特征进行组合和整合,从而得到更高级别的表征。这有助于网络对输入数据进行更复杂、更抽象的分析和理解。
  • 分类和预测:全连接层是神经网络的最后一层,通常用于进行分类、预测或输出。它将前面层的特征映射到最终的输出类别或数值。

在深度学习任务中,通常会将全连接层放置在卷积层和池化层之后,构成一个典型的卷积神经网络(CNN)结构。全连接层的引入可以增加网络的灵活性和表达能力,使其能够适应各种复杂的任务,并进行准确的分类和预测。然而,随着网络层数的增加,全连接层的参数量也会大幅增加,导致计算量增加和过拟合的风险,因此需要适当的正则化和优化策略来处理。

神经网络层数 = CONV + FC

  • 13
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
传统神经网络结构是指非循环神经网络,也称为前馈神经网络。在传统神经网络中,信息只能从输入层流向输出层,不存在循环连接。传统神经网络由多个神经元组成,每个神经元接收来自上一层神经元的输入,并通过激活函数对输入进行加权求和和非线性变换,然后将结果传递给下一层神经元。这种层与层之间的连接方式使得传统神经网络能够处理各种复杂的非线性关系。 传统神经网络的训练过程通常使用反向传播算法(Backpropagation)来更新网络中的权重和偏置,以最小化预测输出与真实输出之间的误差。反向传播算法通过计算误差梯度并将其传递回网络的每一层来实现权重和偏置的更新。 传统神经网络结构的一个重要特点是每个神经元与上一层的所有神经元都有连接,这导致了网络的参数数量随着网络规模的增加而呈指数级增长,从而增加了训练的复杂性和计算成本。 总结起来,传统神经网络结构是一种非循环的前馈网络,通过层与层之间的连接和激活函数的作用,能够处理各种复杂的非线性关系。它的训练过程使用反向传播算法来更新网络中的权重和偏置。然而,传统神经网络在处理序列数据等具有时间相关性的任务时存在一定的局限性,因此后来发展出了循环神经网络(RNN)等更加适用于这类任务的网络结构。\[1\]\[2\] #### 引用[.reference_title] - *1* [RNN(循环神经网络)详解](https://blog.csdn.net/fighting_qq/article/details/126708149)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [最全神经网络基础知识讲解](https://blog.csdn.net/CSS360/article/details/126388382)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [卷积神经网络结构详解](https://blog.csdn.net/ytusdc/article/details/78190651)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

FG.

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值