机器学习中如何将数据集拆分为mini_batch?numpy代码实现
什么是mini_batch?
对机器学习来讲,梯度下降是一个很重要的概念。每次更新参数时,都需要一定数量的样本,假设m是样本的总数,那么mini_batch就是样本的一个子集,也就是说,把m个样本拆分成很多子集,每一个子集里面都有一些样本数。
为什么需要mini_batch?
传统的机器学习,完成一次梯度更新,迭代参数,需要所有的样本去计算损失函数,随着数据集越来越大,这样会使得模型训练的速度越来...
原创
2019-09-26 15:00:11 ·
1420 阅读 ·
0 评论