前言
关于梯度的前世今生问题我已经在这篇文章中探讨了 => 【机器学习】之梯度的探究
现在我们已经知道,一个函数在其梯度方向上变化率最大!
本篇是对黑猿大叔TensorFlow从0到1 - 6 - 解锁梯度下降算法的理解。
推导
因为函数C沿梯度方向变化率最高,我们不妨令
则此时ΔV的方向是梯度方向或者梯度反方向(为什么ΔV方向既可以是梯度方向也可以是梯度反方向呢)
我们的目标是:损失函数找到最小值!在函数C上从高往低走,自然有
关于梯度的前世今生问题我已经在这篇文章中探讨了 => 【机器学习】之梯度的探究
现在我们已经知道,一个函数在其梯度方向上变化率最大!
本篇是对黑猿大叔TensorFlow从0到1 - 6 - 解锁梯度下降算法的理解。
因为函数C沿梯度方向变化率最高,我们不妨令
则此时ΔV的方向是梯度方向或者梯度反方向(为什么ΔV方向既可以是梯度方向也可以是梯度反方向呢)
我们的目标是:损失函数找到最小值!在函数C上从高往低走,自然有