机器学习(2)普通最小二乘法

普通最小二乘法

线性回归用来拟合带有系数的线性模型,目的是最小化数据集中的原始数据与通过线性近似预测的数据之间的平方和的残差。 数学上它解决了形式的问题:

线性回归将采用其fit方法拟合数组X,y,并将线性模型的系数w存储在其coef_成员中:

>>> from sklearn import linear_model
>>> reg = linear_model.LinearRegression()
>>> reg.fit ([[0, 0], [1, 1], [2, 2]], [0, 1, 2])
LinearRegression(copy_X=True, fit_intercept=True, n_jobs=1, normalize=False)
>>> reg.coef_
array([ 0.5,  0.5])
然而,普通最小二乘法的系数估计依赖于模型项的独立性。 当项相关并且设计矩阵X的列具有近似线性相关性时,设计矩阵变得接近单数,这样的结果是,最小二乘估计对所观察到的数据中的随机误差变得高度敏感,产生大的方差 。 这种多重共线性的情况可以可以在一些情况下发生,例如,没有实验设计的情况下收集数据将会出现这种情况。

例子:
线性回归示例

普通最小二乘复杂性:
该方法使用X的奇异值分解来计算最小二乘解。如果X是大小(n,p)的矩阵,假设,则该方法具有的成本。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值