批量归一化,优化与凸优化

批量归一化

  • 1.对全连接层做批量归一化

位置:全连接层中的仿射变换和激活函数之间。

  • 2.对卷积层做批量归⼀化

位置:卷积计算之后、应⽤激活函数之前。

  • 3.预测时的批量归⼀化

训练:以batch为单位,对每个batch计算均值和方差。
预测:用移动平均估算整个训练数据集的样本均值和方差。

pytorch中的nn模块定义的BatchNorm1d和BatchNorm2d分别用于全连接层和卷积层。

优化与深度学习

  • 优化与估计

尽管优化方法可以最小化深度学习中的损失函数值,但本质上优化方法达到的目标与深度学习的目标并不相同。

  1. 优化方法目标:训练集损失函数值
  2. 深度学习目标:测试集损失函数值(泛化性)
  • 优化在深度学习中的挑战

1. 局部最小值

2. 鞍点(一阶导数为0的点)

3. 梯度消失

  • 凸函数的性质

  1. 无局部极小值
  2. 与凸集的关系
  3. 二阶条件
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值