对梯度的方向问题理解的不够透彻,在网上找到了一些讲解,存档一下便于自己记录回顾。
知乎:
1、t类比Δx/Δy的作用,t->0,t趋近于0,求极限。
2、方向偏导是偏微分的特殊情况。
待解决:
1、梯度中的learning rate到底是什么?有什么用?
什么是学习率?
学习率是指导我们,在梯度下降法中,如何使用损失函数的梯度调整网络权重的超参数。
new_weight = old_weight - learning_rate * gradient
学习率 (Learning rate) 作为监督学习以及深度学习中重要的超参,其决定着目标函数能否收敛到局部最小值以及何时收敛到最小值。 合适的学习率能够使目标函数在合适的时间内收敛到局部最小值。
学习速率 (learning rate) 是指导我们该如何通过损失函数的梯度调整网络权重的超参数。
在机器学习的上下文中,超参数是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。 通常情况下,需要对超参数进行优化,给学习机选择一组最优超参数,以提高学习的性能和效果。