笔记:动手学深度学习pytorch(优化算法进阶,word2vec,词嵌入进阶)
- 优化算法进阶- Momentum目标函数有关自变量的梯度代表了目标函数在自变量当前位置下降最快的方向。因此,梯度下降也叫作最陡下降(steepest descent)。在每次迭代中,梯度下降根据自变量当前位置,沿着当前位置的梯度更新自变量。然而,如果自变量的迭代方向仅仅取决于自变量当前位置,这可能会带来一些问题。对于noisy gradient,我们需要谨慎的选取学习率和batch siz...
原创
2020-02-24 17:22:04 ·
571 阅读 ·
0 评论