在R中通过summary某个模型之后,得到summary的结果,我们即要看懂summary的结果。
Call:
lm(formula = y ~ x)
Residuals:
1 2 3 4 5
9.692 1.962 -5.577 -2.308 -3.769
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -20.154 8.043 -2.506 0.0873 .
x 102.865 1.542 66.698 7.43e-06 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 7.034 on 3 degrees of freedom
Multiple R-squared: 0.9993, Adjusted R-squared: 0.9991
F-statistic: 4449 on 1 and 3 DF, p-value: 7.427e-06
- Residuals
代表的是每一项数值的残差(y1-y0) - Coefficients
Intercept表示截距行的相关情况,x即使x的系数行,这里的模型即可以表示为:y=98.882x+3.118。Std. Error是标准差(残差平方和)。最后的**越多,代表月准确。 - Multiple R-squared
相关系数平方,值越接近1,代表模型越准确,这个值是衡量模型整体的准确度,一般0.8几就代表模型已经挺不错了。 - Adjusted R-squared
拟合系数评分,因为存在这样的情况,当自变量越多,模型越准确,所以在自变量个数上存在一个取舍,不能有过多的自变量,所以有这个指标
参考:【教程】教你如何读懂线性回归lm的结果summary(判断显著性)
但是里面涉及到很重要的一个概念就是p值和t值,t值是要查t值对照表才知道模型好坏,但是p值是个概率问题,p值越小,模型越好,所以我们要看p值。t值和P值都用来判断统计上是否显著的指标,所以要先弄懂什么是显著性检验(又叫假设检验)非常重要,什么是小概率事件,什么是正态分布,但是不要钻到显著水平这个文字游戏中,只要知道原理即可,不需要扣字面意思,否则很难理解。
参考:回归参数的显著性检验