gradient descent 梯度下降 : https://fanyi.baidu.com/#en/zh/gradient%20descent
Stochastic gradient descent 随机梯度下降:https://fanyi.baidu.com/#en/zh/Stochastic%20gradient%20descent
Batch gradient descent 批量梯度下降:https://fanyi.baidu.com/#en/zh/Batch%20gradient%20descent
Mini-batch gradient descent 小批量梯度下降 :https://fanyi.baidu.com/#en/zh/Mini-batch%20gradient%20descent
区别:
随机梯度下降:每次迭代使用一组样本
批量梯度下降法:每次迭代使用所有的样本
小批量梯度下降:每次迭代使用b组样本
个人认为十分有趣的讲解:
https://blog.csdn.net/weixin_39445556/article/details/83661219
三种算法讲解:
https://blog.csdn.net/kwame211/article/details/80364079
下次开始使用西瓜书配斯坦福大学的视频开始学习: