在阅读文献的时候,看到其中提到“选用了SGD左右优化器算法”,然后找到了这篇详尽地解释了各种优化器算法地文章:
https://www.cnblogs.com/guoyaohua/p/8542554.html
文中提到的SGD指随机梯度下降法,每次迭代只使用一组训练数据,这样每次迭代不一定都朝着收敛方向去,但总体上是收敛的。
【算法笔记】深度学习中的优化器Optimizer算法(BGD,SGD,mBGD......)
最新推荐文章于 2022-11-03 18:54:27 发布
在阅读文献的时候,看到其中提到“选用了SGD左右优化器算法”,然后找到了这篇详尽地解释了各种优化器算法地文章:
https://www.cnblogs.com/guoyaohua/p/8542554.html
文中提到的SGD指随机梯度下降法,每次迭代只使用一组训练数据,这样每次迭代不一定都朝着收敛方向去,但总体上是收敛的。