梯度下降
梯度下降法(Gradient descent)是一个一阶最优化算法,就是让参数沿着损失函数负梯度的方向更新。迭代的步长,也就是学习率是事先给定的,如果负梯度的绝对值越大,这次更新的幅度也会越大,越接近极值点时,负梯度会越小,这时更新就会较慢。
牛顿法
牛顿法是一个二阶最优化算法,它将损失函数进行二阶展开,因此会涉及到二阶导对应的海森矩阵。它的更新速度很快,但计算复杂度较高,主要是要求解海森矩阵的逆。
另外,牛顿法不仅可以用来求解函数的极值问题,还可以用来求解方程的根,二者在本质上是一个问题,因为求解函数极值的思路是寻找导数为0的点,如果要求f(x)的极值,也就是求f’(x)=0的根了。
题
给定一个正数,不用开根符号求解这个数的开方根。
分析:换一个思路,题目就是给定y,要求解 y − x 2 = 0 y-x^2=0 y−x2<