机器学习超参数mini-batch(小批量)与正则化

47 篇文章 3 订阅

1、一个epoch(周期)为所有数据完成一次前向与反向传播,iteration(迭代次数)为权重参数更新的次数,mini-batch(小批量)为一次权重参数更新所用的数据条数。迭代次数=数据总数/小批量 ,例如数据总数为2000条数据,小批量为500,那么一个周期内迭代次数=2000/500=4 ,如果是两个周期,那么迭代次数=2*(2000/500)=8

2、mini-batch越大,意味着计算量越大,梯度越平滑。但不是越大越好,权衡内存,计算量,优化效果。

3、mini-batch一般为2的次方,层的大小一般也为2的次方,这是由硬件特性造成的。

4、使用CPU进行训练时mini-batch一般为32到256,使用GPU进行训练时mini-batch一般为32 到1024

5、当你增大mini-batch时,迭代次数就会减少,那么参数更新次数也会减小,因此,要适当增加epoch的次数。

6、正则化是为了避免权重参数变化太快太大,以防过拟合。

7、L2更重地惩罚较大的权重,但不会将较小的权重减到0。L1对大权重的惩罚较小,但会导致许多权重被减少到0(或非常接近0),这意味着合成权重向量可以是稀疏的。

  • 4
    点赞
  • 34
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值