吴大佬的网课——多变量线性回归1.0

之前一直是在讨论数据集一个变量或者两个变量下的情况,终于来到了多个变量的情况了,看到矩阵和向量就有些害怕呢。不过它的基本原理肯定还是没有变的,还是有一个假设函数,然后有对应的代价函数,我们的目标还是最小化花费函数,如下图这里写图片描述
那运用梯度下降法时,有什么变化呢?
除了要改变的参数增多外,一点变化都没有,还是让参数在梯度的对应维度下降一定距离
这里写图片描述
接下来又讲了点梯度下降法的一点小技巧啦,比如对学习率的选取,不能太大,太大的话,有可能会直接越过局部最优解,反而让学习率越来越大,但是也不能太小,太小的话变得太慢。还有就是均一化,通过对数据集同乘或者同除,来让数据变得在近似范围内,方便其梯度下降。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值