神经网络(CNN)
神经网络主要有三个部分组成, 分别为:
- 网络结构 —— 描述神经元的层次与连接神经元的结构.
- 激活函数(激励函数) —— 用于加入非线性的因素, 解决线性模型所不能解决的问题.
- 参数学习方法的选择(一般为权重值W和偏置项b)
一、CNN领域划分
- 图像处理领域
- 图像识别
- 图像标注
- 图像主题生成
- 图像内容生成
- …
- 视频处理领域
- 视频分类
- 视频标准
- 视频预测
- …
- 自然语言处理(NLP)领域
- 对话生成
- 文本生成
- 机器翻译
- …
- 其它方面
- 机器人控制
- 游戏
- 参数控制
- …
二、网络结构
- 传统神经网络
上图为全连接的结构,这就造成了参数训练的难度加深,在BP求解中可能出现梯度爆炸和梯度消失的现象等。由于该结构(深度结构)涉及多个非线性我是不是单元层,非凸目标代价函数中普遍存在的局部最小是训练困难的主要来源。
-
卷积神经网络
如上图所示,CNN主要有数据输入层,卷积层,ReLUctant激励层,池化层,全连接,Batch层。且每一层都具有不同的功能。
-
输入层(Input layer)
输入数据,进行数据预处理。去均值:把输入数据各个维度都中以化到0;归一化:幅度归一化到同一范围;PCA/白化:用pcauto.com.cn降维,白化是在对数据每个特征轴上的数据进行归一化。
-
卷积层(CONV layer)
卷积核(conv):通过一定大小,在上层选择数据
深度(depth):每层划分的数量
步长(stride):每次移动距离
填充(padding):在数据集周边填充上若干圈全为0的数据 -
激励层(ReLU layer)
主要作用是将卷积层的结果做非线性映射。常见的激励层函数有sigmoid、tanh、Relu、Leaky Relu、ELU、Maxout等。
-
池化层(Pooling layer)
在连续的卷基层和激励层中间,用于压缩数据和参数的量,用于减少过拟合。
-
全连接层(FC layer)
全连接层即两层之间的所有神经元都有权重连接,通常会在卷积神经网络的尾部。
-