用最小二乘法训练神经网络_寻找最小二乘法

17ac2c0c3eda910aeb78dc088cad4200.png

今天聊最小二乘法的实现。

都知道线性回归模型要求解权重向量w,最传统的做法就是使用最小二乘法。

根据在scikit-learn的文档,模型sklearn.linear_model.LinearRegression,使用的就是最小二乘法(least squares ):

bfb1a4ee749b10d0d4594e5b5f6b3b1a.png

可是,最小二乘法在哪实现呢?

光看Api肯定是看不出来的,要深入到源码中去。不过,要找最小二乘法,首先我们得要知道她长什么样。

这个问题有点复杂。准确来说,最小二乘法是一种解法,用来求当均方误差最小时,权重向量w的闭式解。不过好在,我们知道闭式解长这样:

18a59ee78387de939f7f7c1707de42ed.png
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值