神经网络基础知识

一、课程来源:

深度之眼神经网络基础知识

二、主要内容:

主要分为三个部分,分别是

1.神经网络基础与多层感知机:基础知识、激活函数、反向传播、损失函数、权值初始化和正则化

2.卷积神经网络:统治图像领域的神经网络结构,发展历史、卷积操作和池化操作

3.循环神经网络:统治序列数据的神经网络结构,RNN、GRU和LSTM

三、神经网络基础与多层感知机

(1)人工神经元:第一个神经网络模型是科学家Rosenblatt提出的Perceptron(感知机模型)

但是这个模型无法解决异或问题,因为他是用一条直线进行拟合,然后将一个平面分割为两个平面,对异或问题无法解决。

(2)多层感知机(Multi layer Perceptron)

因为感知机模型不能解决异或问题,所以出现了多层感知机,多层感知机的核心是:在隐藏层引入了激活函数,这个激活函数一般是非线性的函数,从而避免因为矩阵乘法变化导致的网格退化。

(3)激活函数(Activation Function)

激活函数的作用是:

1.让多层感知机成为真正的多层,否则等价为一层;

2.引入非线性函数,使网络可以逼近任意非线性函数。(万能逼近定理)

激活函数需要具备以下几点性质:

1 . 连续并可导(允许少数点上不可导),便于利用数值优化的方法来学习网络参数

2 . 激活函数及其导函数要尽可能的简单,有利于提高网络计算效率

3 . 激活函数的导函数的值域要在合适区间内,不能太大也不能太小,否则会影响训练的效率和稳定性

常见的激活函数:Sigmoid、Tanh、ReLU

 (4)反向传播

 前向传播:输入层数据开始从前向后,数据逐步传递至输出层

反向传播:损失函数开始从后向前,梯度逐步传递至第一层(梯度是不是指求导?)

反向传播能够更新权重,使网络输出更接近标签

(5)损失函数

损失函数:衡量模型输出与真是标签之间的差距

损失函数(Loss Function):是指单样本差距

代价函数(Cost Function):是指总体样本差距

目标函数(Objective Function):代价函数加正则项

两种常见的损失函数:分类和回归任务

(6)权值初始化

权值初始化:训练前对权值参数赋值,良好的权值初始化有利于模型训练

简便但错误的方法:初始化为全0

随机初始化、Xavier初始化、Kaiming初始化

(7)正则化

Regularization:减小方差的策略,通俗理解为减轻过拟合的策略

误差可分解为:偏差,方差与噪声之和。即误差 = 偏差 + 方差 + 噪声之和

偏差:度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力

方差:度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响

噪声:则表达了在当前任务上任何学习算法所能达到的期望泛化误差的下界

方法:L2权值衰减、Dropout随机失活等

四、卷积神经网络(convolutional neural networks, CNN)

(1)概述

CNN是针对图像领域任务提出的神经网络, 经历数代人的发展, 在2012年之后大部分图

像任务被CNN统治, 例如图像分类, 图像分割, 目标检测, 图像检索等

1.第一个卷积神经网络——新认知机(Neocognitron)

1980年, 日本学者福岛邦彦借鉴猫视觉系统实验结论, 提出具有层级结构的神经网络——新认知机,堆叠使用类似于S 细胞和C 细胞的两个结构。

S 细胞和C 细胞可类比现代CNN的卷积和池化

缺点: 没有反向传播算法更新权值, 模型性能有限

2.第一个大规模商用卷积神经网络——Lenet-5

1989年,Lecun等人已开始研究Lenet。1998年,Lecun 等人提出Lenet-5, 并成功在美国邮政系统中大规模应用于手写邮政编码识别

缺点: 无大量数据和高性能计算资源

3.第一个技惊四座的卷积神经网络——AlexNet

2012年,AlexNet以超出第二名10.9%的成绩夺得ILSVRC分类任务冠军, 从此拉开卷积神经网络统治图像领域序幕

 (2)卷积层

 

 多通道卷积: RGB图像是3*h*w的三维的数据,第一个维度3,表示channel(通道数)

一个卷积核是3-D张量,第一个维与输入通道有关

注:卷积核尺寸通常指高、宽

 

(3)池化层 

池化作用:

1. 缓解卷积层对位置的过度敏感

2. 减少冗余

3. 降低图像分辨率,从而减少参数量

(4)Lenet-5

 五、循环神经网络(Recurrent Neural Network, RNN)

(1)序列数据:是指数据前后具有关联性。比如基因数据,文本数据等。

(2)语言模型:

语言模型是自然语言处理(NLP)重要技术。

需要不断考虑前面出现过的词,所以计算量很大。

(3)循环神经网络(RNN) 

RNN是针对序列数据而生的神经网络结构, 核心在于循环使用网络层参数, 避免时间步增大带来的参数激增, 并引入隐藏状态( Hidden State ) 用于记录历史信息, 有效的处理数据的前后关联性。

左边是没有展开的,在输入和输出之间不断循环

右边是展开的:会考虑上一阶段的h隐藏状态

循环神经网络在每一个隐藏状态都会考虑上一隐藏状态的值  Whh是指从Wh到Wh,下标是指从哪到哪。

RNN特性:

1 . 循环神经⽹络的隐藏状态可以捕捉截至当前时间步的序列的历史信息

2 . 循环神经⽹络模型参数的数量不随时间步的增加⽽增长

穿越时间反向传播:因为RNN需要有时间关联,所以在反向传播的时候需要通过时间来进行

梯度随时间t 呈指数变化, 易引发梯度消失或梯度爆炸(梯度变为0或梯度无穷大)

(4)门控循环单元 

让模型记住重要的东西,遗忘不重要的东西,这样在下一次更新梯度的时候不用更新所有的内容

候选隐藏状态主要用于对历史信息进行遗忘,记住有用的。

GRU——引入门控机制的循环网络

重置门: 哪些信息需要遗忘,用于遗忘上一时间步隐藏状态

更新门: 哪些信息需要注意,用于更新当前时间步隐藏状态 

 (5)长短期记忆网络(Long short-term memory, LSTM)

输出门让输出,记忆细胞信息才能流入隐藏状态。

LSTM模型整体如下图:

  • 4
    点赞
  • 43
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
卷积神经网络(Convolutional Neural Network,简称CNN)是一种深度学习模型,广泛应用于计算机视觉任务,如图像分类、目标检测和图像生成等。 CNN的基本组成部分包括卷积层(Convolutional Layer)、池化层(Pooling Layer)和全连接层(Fully Connected Layer)。 卷积层是CNN的核心,通过卷积操作提取输入数据的特征。卷积操作使用一组可学习的卷积核(或滤波器)对输入数据进行滑动窗口的方式进行计算,生成特征图(Feature Map)。特征图可以捕捉输入数据的空间结构信息。 池化层用于减小特征图的空间尺寸,并降低模型对位置的敏感性。常见的池化方式有最大池化和平均池化,它们分别选择窗口内的最大值或平均值作为池化后的值。 全连接层将池化层输出的特征图连接为一个向量,并通过多个全连接层进行分类或回归等任务。 除了上述基本组成部分,CNN还可以包含其他功能模块,如批归一化层(Batch Normalization)用于加速训练过程、激活函数层(Activation Layer)用于引入非线性等。 通过多个卷积层和池化层的堆叠,CNN可以逐渐提取输入数据的高层次特征,从而实现对复杂任务的有效建模。在训练过程中,CNN通过反向传播算法进行参数的优化,使得模型能够适应特定的任务。 希望以上基础知识能够帮助到您!如果您有更多问题,可以继续提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值