深度学习中的batch_size

机器学习中的batch_size

  1. batch_size有何作用? 为什么要用batch_size?
    作用1: 可以更多次更新梯度
    作用2: 使参数跳出局部最优值
    作用3: 内存限制

  2. 对batch_size大小的理解

batch_size较小batch_size较大
数据集较小1. 需要训练更多次才能收敛
2. 训练一个 epoch 的时间更长
3. 样本随机性更大,不会出现局部最优的情况
可以采用 full batch learning 的方法
1. 能够更准确指向极小值的方向
2. 可能会出现局部最优?
3. 全局学习率选取困难,可以使用 Rprop 更新梯度
数据集较大1. 需要训练更多次才能收敛
2. 训练一个 epoch 的时间更长
3. 样本随机性更大,不会出现局部最优的情况
1. 占用过多内存容量
2. 收敛速度变慢

目前还在学习阶段,文中存在问题或者有可以补充的地方,希望大家可以评论留言,谢谢大家!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值