2021李宏毅机器学习笔记--3.gradient descent梯度下降
梯度下降基本步骤
梯度下降法是用于帮助我们找到一个函数集中最好的函式,也就是损失函数最小的函式,它的做法分别为三步。
L(f)表示的是函式f的损失函数数值,他用的是真实的数值与根据输入函数计算出来的估计值的误差的平方连加,有多少次输入就连加多少次误差的平方。
step 1:设定初始值
随机给定一组初始数值
step 2:计算微分
计算出来这一组值的偏微分的数值,此处的偏微分的数值代表的是loss函数图像在该点的斜率,当斜率为负时,表示图像左高右低,当斜率为正时,表示图像左低右高,参数值的改变应该向着使loss值更低处改变,因为我们的目的就是为了得到一个loss值最小的最好的函式。
step 3:移动到下一步
根据计算出来的偏微分进行参数位置移动更新。重复进行第二步第三步直至找到偏微分为0或者无限接近于0的位置的参数,此时这组参数构成