全批量梯度下降虽然稳定,但速度较慢;SGD虽然快,但是不够稳定。为了综合两者的优缺点,小批量随机梯度下降法应运而生。
Mini-batch随机梯度下降:
Mini-batch随机梯度下降法是介于批量梯度下降法和随机梯度下降法之间的方法。我们可以看到当b=1的时候,Mini-batch梯度下降就等于随机梯度下降;当b=m的时候,Mini-batch梯度下降就等于批梯度下降法。所以小批量梯度下降法的效果也和batcih size的选择相关。在深度学习中,用的比较多的是mini-batch梯度下降。
参考连接:http://sofasofa.io/tutorials/python_gradient_descent/5.php