看不懂啊看不懂,一碰到某些问题,我觉着自己的线性代数就算再回炉重造个八百遍都不一定有用
![3e6c6b6bcea6fca9919252933ce6aa1f.png](https://img-blog.csdnimg.cn/img_convert/3e6c6b6bcea6fca9919252933ce6aa1f.png)
做线性回归过程中碰到了一个很超出我理解能力的东西,QR分解
按照从别处看来的概念来说,它的主要作用是把一个矩阵分解成一个正交矩阵外乘一个上三角矩阵
举个例子:
Data
![8ef9bed7cf17adf804394e0df55b8270.png](https://img-blog.csdnimg.cn/img_convert/8ef9bed7cf17adf804394e0df55b8270.png)
为啥特地用lm而不直接用qr函数呢?是因为线性回归过程并没有直接使用x&y的组合,当咱用qr.X把这个QR分解还原到源数据时,可以看到,它其实增加了一个全部为1的Intercept列
![e86fc5e141284dc2d2712976b5601a8e.png](https://img-blog.csdnimg.cn/img_convert/e86fc5e141284dc2d2712976b5601a8e.png)
而分解出来的结果可以用qr.Q和qr.R来查看,其中Q是正交矩阵,R是上三角矩阵
#正交矩阵,其转置和本身外乘得单位矩阵I
Q1
<