之前一直是在讨论数据集一个变量或者两个变量下的情况,终于来到了多个变量的情况了,看到矩阵和向量就有些害怕呢。不过它的基本原理肯定还是没有变的,还是有一个假设函数,然后有对应的代价函数,我们的目标还是最小化花费函数,如下图
那运用梯度下降法时,有什么变化呢?
除了要改变的参数增多外,一点变化都没有,还是让参数在梯度的对应维度下降一定距离
接下来又讲了点梯度下降法的一点小技巧啦,比如对学习率的选取,不能太大,太大的话,有可能会直接越过局部最优解,反而让学习率越来越大,但是也不能太小,太小的话变得太慢。还有就是均一化,通过对数据集同乘或者同除,来让数据变得在近似范围内,方便其梯度下降。
吴大佬的网课——多变量线性回归1.0
最新推荐文章于 2022-09-28 21:50:23 发布