在科学的道路上没有平坦的大道,只有不畏劳苦沿着陡峭山路攀登的人,才有希望达到光辉的顶点。
—马克思
//我要听首歌//
//正文//
昨天的代码:
rm(list=ls())setwd("D:/Rcode/regression/basic")dat"data.csv")hist(data$A)hist(dat $ A,main =“ A的直方图”,xlab =“ A factor”,breaks = 12)list("Summary" = summary(dat$A), "Mean" = mean(dat$A, na.rm=TRUE), "Standard Deviation" = sd(dat$A, na.rm=TRUE), "Range" = range(dat$A,, na.rm=TRUE), "Inter-Quartile Range" = IQR(dat$A,, na.rm=TRUE)) plot(dat$A, dat$B, xlab = "A Factor", ylab = "B Factor") cor.test(dat$A, dat$B, use="complete.obs",method="pearson/spearman")
这里我要介绍一下线性回归模型的基本公式,请记住每一个参数,非常关键:
Y = α + β1*X + ε## Y =结果(即因变量)变量;## X =预测变量(即独立变量)## α和β是回归的参数,其中α=截距(X = 0时的平均Y),## β=直线的斜率(X单位增加1时Y的变化)。## ε是Y中的随机变化,即残差
在R中执行上面的公式,我们需要借助lm()函数:
model <- lm(A~B, data = dat)## A是Y,B是X
模型建好,看结果就开个总结会summary():
summary(model)## 说明一下(Intercept)就是截距α,B不是B,而是slope,就是斜率.
输出就会显示回归方程系数的残差,系数估计,标准误差和p值。
下面这个函数confint(),就是看截距和斜率的95% CI。
confint(model)
附上测试数据下载链接,https://share.weiyun.com/5oexeej
可能你看了觉得这个一元线性回归很简单,但是就是这个简单的公式,有团队就用这个公式发了一篇Global Change Biology (IF=8.88)。
●
●
●
本公众微信平台图文信息报道系「辞官」独家制作,并享有版权。未经授权,不得匿名转载。本平台所使用的内容属于相关权利人所有,因客观原因,部分作品如存在不当使用的情况,请相关权利人随时联系以协商授权事宜。