机器学习中的batch_size
-
batch_size有何作用? 为什么要用batch_size?
作用1: 可以更多次更新梯度
作用2: 使参数跳出局部最优值
作用3: 内存限制 -
对batch_size大小的理解
batch_size较小 | batch_size较大 | 注 | |
---|---|---|---|
数据集较小 | 1. 需要训练更多次才能收敛 2. 训练一个 epoch 的时间更长 3. 样本随机性更大,不会出现局部最优的情况 | 可以采用 full batch learning 的方法 1. 能够更准确指向极小值的方向 2. 可能会出现局部最优? 3. 全局学习率选取困难,可以使用 Rprop 更新梯度 | |
数据集较大 | 1. 需要训练更多次才能收敛 2. 训练一个 epoch 的时间更长 3. 样本随机性更大,不会出现局部最优的情况 | 1. 占用过多内存容量 2. 收敛速度变慢 |
目前还在学习阶段,文中存在问题或者有可以补充的地方,希望大家可以评论留言,谢谢大家!