batch_size的作用

batch_size

模型训练过程:

模型初始化 --> 数据佯本输入模型 --> 模型输出 --> 模型调整

epoches: 总体佯本训练的循环次数

batch_size: 是在一个epoch下分批次进行训练,每次训练的佯本量大小(每进行batch_size佯本输入输出后,进行模型参数修正)

BP神经网络为例:

>假设 佯本数量500,输入维度是10,输出维度是2 ;
epoches = 100  训练100次 ;
batch_size = 1
for i in epoches:
    for 1 in 500:  //进行500次模型调整
        1个佯本输入,进行模型调整(2维输出,均方误差和进行梯度下降)

batch_size = 5
for i in epoches:
 	for 5 in 500:   //进行100次模型调整
    	5个佯本输入,进行模型调整(5*2维输出,均方误差和进行梯度下降)

结论

  • batch_size越小,模型调整越频繁,但震荡严重,难以收敛,耗时较长
  • batch_size越大,模型调整较少,收敛较快,但容易造成局部收敛,且内存一次性消耗较大
  • 合适的batch_size,可以有效提高模型精度、全局收敛。

转载于:https://my.oschina.net/u/3851199/blog/1944826

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值