深度学习概念、参数理解:iteration, batch_size, epoch, learning rate, weight_decay

  关于iteration, batch_size, epoch:

  神经网络在训练数据集上跑一遍,称为一次迭代(iteration)

  但是一次迭代如果把数据集中的数据都跑一遍,速度会很慢,所以一次iteration只使用部分数据,这个数目就称为batch_size

  不过这样的话,一次迭代就不一定能完整的跑完数据集中的所有数据了,这时候如果比较iteration就没啥意义了,所以又提出了epoch这个概念,如果说所有数据都被过一次了,就叫一个epoch。简单说,epochs指的就是训练过程中数据将被 “ 过 ” 多少次。

  关于learning rate, weight_decay:

  参考网址:http://www.mamicode.com/info-detail-2124262.html

  • 1
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值