神经网络(CNN)

神经网络(CNN)

神经网络主要有三个部分组成, 分别为:

  1. 网络结构 —— 描述神经元的层次与连接神经元的结构.
  2. 激活函数(激励函数) —— 用于加入非线性的因素, 解决线性模型所不能解决的问题.
  3. 参数学习方法的选择(一般为权重值W和偏置项b)

一、CNN领域划分

  1. 图像处理领域
    • 图像识别
    • 图像标注
    • 图像主题生成
    • 图像内容生成
  2. 视频处理领域
    • 视频分类
    • 视频标准
    • 视频预测
  3. 自然语言处理(NLP)领域
    • 对话生成
    • 文本生成
    • 机器翻译
  4. 其它方面
    • 机器人控制
    • 游戏
    • 参数控制

二、网络结构

  1. 传统神经网络

在这里插入图片描述

上图为全连接的结构,这就造成了参数训练的难度加深,在BP求解中可能出现梯度爆炸和梯度消失的现象等。由于该结构(深度结构)涉及多个非线性我是不是单元层,非凸目标代价函数中普遍存在的局部最小是训练困难的主要来源。

  1. 卷积神经网络
    在这里插入图片描述

    如上图所示,CNN主要有数据输入层,卷积层,ReLUctant激励层,池化层,全连接,Batch层。且每一层都具有不同的功能。

    1. 输入层(Input layer)

      ​ 输入数据,进行数据预处理。去均值:把输入数据各个维度都中以化到0;归一化:幅度归一化到同一范围;PCA/白化:用pcauto.com.cn降维,白化是在对数据每个特征轴上的数据进行归一化。

    2. 卷积层(CONV layer)

      卷积核(conv):通过一定大小,在上层选择数据
      深度(depth):每层划分的数量
      步长(stride):每次移动距离
      填充(padding):在数据集周边填充上若干圈全为0的数据

    3. 激励层(ReLU layer)

      主要作用是将卷积层的结果做非线性映射。常见的激励层函数有sigmoid、tanh、Relu、Leaky Relu、ELU、Maxout等。

    4. 池化层(Pooling layer)

      在连续的卷基层和激励层中间,用于压缩数据和参数的量,用于减少过拟合。

    5. 全连接层(FC layer)

      全连接层即两层之间的所有神经元都有权重连接,通常会在卷积神经网络的尾部。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值