十五天掌握CNN——可视化理解CNN、CNN优缺点、参数初始化、过拟合

魏老师学生——Cecil:学习卷积神经网络CNN之旅

可视化理解CNN

  1. 保存层级的网络结构。
  2. 不同层级有不同形式运算和功能。
    1
    2
    3
    4
    5

CNN优缺点

优点

  1. 局部感知的共享卷积核,轻松处理高维参数。
  2. 特征属性不敏感,特征值通过训练权重得到。
  3. 通过深层次的网络,可以抽取更丰富的图像信息,具有更好的表达效果。

缺点

  1. 需要调参和大量样本,训练迭代次数较多,使用GPU训练最佳。
  2. 物理含义不明确,很难从每层输出看出含义。

参数初始化

CNN中,神经元之间的连接通过权重ω和偏置b实现,且ω、b的取值直接影响模型训练速度和训练精度。

权重的初始化

建议方式: 随机数很小。多层深度神经网络中,值太小导致回传梯度很小。

  1. 服从均值为0,方差较小的高斯分布随机数列。2/n,n为权重数量。
  2. Xavier 服从均匀分布的随机数列。

错误方式:

全部初始化为0,即全部设置为0,在反向传播时梯度值一样,导致网络权重无法差异化,就无法学习到东西。

注意:

  1. Weight Standarization即权重ω标准化,类似批归一化,是对权重系数做标准化操作,让模型效果更好。
  2. 卷积和FC操作前,对ω做标准化操作。卷积操作中以每个卷积核为单位计算均值 μ 和标准差 σ 。
  3. FC操作时,以当前层次的所有权重为单位计算均值 μ 和标准差 σ 。

偏置项的初始化

一般直接设为0,网络中存在RLU激活函数时,可以设为一个很小的正数。

Xavier

1
nj:输入维度数目。 nj+1:输出维度数目。

过拟合

1

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值