1 梯度下降法
参考链接:梯度下降法(Gradient Descent) – 现代机器学习的血液
2 微分理解
1、我们所要优化的函数必须是一个连续可微的函数,可微,既可微分,意思是在函数的任意定义域上导数存在。如果导数存在且是连续函数,则原函数是连续可微的。
2、函数图像中,某点的切线的斜率
3、函数的变化率
参考链接:梯度下降法(Gradient Descent) – 现代机器学习的血液
1、我们所要优化的函数必须是一个连续可微的函数,可微,既可微分,意思是在函数的任意定义域上导数存在。如果导数存在且是连续函数,则原函数是连续可微的。
2、函数图像中,某点的切线的斜率
3、函数的变化率