可以按照以下步骤修改代码:
1. 将 par(mfrow=c(1,2)) 改为 par(mfrow=c(2,3)),表示将Plots位置改为6个。
2. 将 plot(lambda, mse1, type="l", xlab="lambda", ylab="CV error", main="Beta1") 和 plot(lambda, pred_error1, type="l", xlab="lambda", ylab="Prediction error", main="Beta1") 改为:
```
# 画Beta1的CV error图
plot(lambda, mse1, type="l", xlab="lambda", ylab="CV error", main="Beta1 CV error")
# 画Beta1的Prediction error图
plot(lambda, pred_error1, type="l", xlab="lambda", ylab="Prediction error", main="Beta1 Prediction error")
```
这样就能够将同一组的两张图排列在一起,并且更明确地表示出它们的含义。
3. 将上述代码中的“Beta1”改为“Beta2”和“Beta3”,分别表示三组系数的图像。修改后的完整代码如下:
```
# ①建立50×30的随机数据和30个变量
set.seed(123)
X <- matrix(rnorm(50*30), ncol=30)
y <- rnorm(50)
# ②生成三组不同系数的线性模型
beta1 <- rnorm(30, mean=1, sd=0.5)
beta2 <- rnorm(30, mean=2, sd=0.5)
beta3 <- rnorm(30, mean=3, sd=0.5)
# 定义一个函数用于计算线性回归的CV值
cv_linear <- function(X, y, k=10, lambda=NULL) {
n <- nrow(X)
if (is.null(lambda)) {
lambda <- seq(0, 1, length.out=100)
}
mse <- rep(0, length(lambda))
folds <- sample(rep(1:k, length.out=n))
for (i in 1:k) {
X_train <- X[folds!=i, ]
y_train <- y[folds!=i]
X_test <- X[folds==i, ]
y_test <- y[folds==i]
for (j in 1:length(lambda)) {
fit <- glmnet(X_train, y_train, alpha=0, lambda=lambda[j])
y_pred <- predict(fit, newx=X_test)
mse[j] <- mse[j] + mean((y_test - y_pred)^2)
}
}
mse <- mse / k
return(mse)
}
# ③(线性回归中)分别计算这三组的CV值
lambda <- seq(0, 1, length.out=100)
mse1 <- cv_linear(X, y, lambda=lambda)
mse2 <- cv_linear(X, y, lambda=lambda)
mse3 <- cv_linear(X, y, lambda=lambda)
# ④(岭回归中)分别画出这三组的两张图,每组两张图均以lambda为横坐标:
library(glmnet)
par(mfrow=c(2,3))
# 画Beta1的CV error图
plot(lambda, mse1, type="l", xlab="lambda", ylab="CV error", main="Beta1 CV error")
# 画Beta1的Prediction error图
fit1 <- glmnet(X, y, alpha=0, lambda=lambda[which.min(mse1)])
y_pred1 <- predict(fit1, newx=X)
pred_error1 <- mean((y - y_pred1)^2)
plot(lambda, pred_error1, type="l", xlab="lambda", ylab="Prediction error", main="Beta1 Prediction error")
# 画Beta2的CV error图
plot(lambda, mse2, type="l", xlab="lambda", ylab="CV error", main="Beta2 CV error")
# 画Beta2的Prediction error图
fit2 <- glmnet(X, y, alpha=0, lambda=lambda[which.min(mse2)])
y_pred2 <- predict(fit2, newx=X)
pred_error2 <- mean((y - y_pred2)^2)
plot(lambda, pred_error2, type="l", xlab="lambda", ylab="Prediction error", main="Beta2 Prediction error")
# 画Beta3的CV error图
plot(lambda, mse3, type="l", xlab="lambda", ylab="CV error", main="Beta3 CV error")
# 画Beta3的Prediction error图
fit3 <- glmnet(X, y, alpha=0, lambda=lambda[which.min(mse3)])
y_pred3 <- predict(fit3, newx=X)
pred_error3 <- mean((y - y_pred3)^2)
plot(lambda, pred_error3, type="l", xlab="lambda", ylab="Prediction error", main="Beta3 Prediction error")
```