使用支持向量回归(SVR) 做多元回归模型
下面是一个使用Python实现基于支持向量回归(SVR)的回归模型的脚本,包括数据预处理、模型训练以及模型评估的过程。请确保你的环境中已经安装了pandas
, scikit-learn
, numpy
等必要的库。
import pandas as pd
import numpy as np
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.svm import SVR
from sklearn.metrics import mean_squared_error, r2_score
# 假设你的数据已经加载到一个DataFrame中
df = pd.read_csv('your_data.csv')
df = pd.DataFrame(data)
# 提取特征和目标变量
X = df.drop(['name', 'mrn', 'width'], axis=1) # 移除不必要的特征
y = df['width of chin']
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 标准化特征
scaler = StandardScaler()
X_train_scaled = scaler.fit_transform(X_train)
X_test_scaled = scaler.transform(X_test)
# 定义并训练SVR模型
svr = SVR(kernel='rbf')
svr.fit(X_train_scaled, y_train)
# 进行预测
y_train_pred = svr.predict(X_train_scaled)
y_test_pred = svr.predict(X_test_scaled)
# 评估模型
mse_train = mean_squared_error(y_train, y_train_pred)
mse_test = mean_squared_error(y_test, y_test_pred)
r2_train = r2_score(y_train, y_train_pred)
r2_test = r2_score(y_test, y_test_pred)
print(f"Training MSE: {mse_train}")
print(f"Test MSE: {mse_test}")
print(f"Training R2: {r2_train}")
print(f"Test R2: {r2_test}")
# 可视化
import matplotlib.pyplot as plt
plt.figure(figsize=(10, 5))
plt.scatter(y_test, y_test_pred, color='blue', label='Predicted vs Actual')
plt.plot([y.min(), y.max()], [y.min(), y.max()], color='red', linewidth=2, label='Ideal fit')
plt.xlabel('Actual Width ')
plt.ylabel('Predicted Width')
plt.title('SVR Predictions vs Actual')
plt.legend()
plt.show()
解释
- 数据准备:首先,将数据加载到DataFrame中并进行预处理,包括去除不必要的特征。
- 特征和目标变量:提取特征(X)和目标变量(y)。
- 数据分割:将数据分成训练集和测试集。
- 数据标准化:使用StandardScaler对数据进行标准化。
- 模型训练:定义并训练支持向量回归模型。
- 模型预测:使用训练好的模型进行预测。
- 模型评估:使用均方误差(MSE)和决定系数(R²)评估模型性能。
- 可视化:可视化模型的预测结果与实际值的关系。
通过这种方法,你可以建立一个基于支持向量回归的模型,并使用常规的方法来评价模型的好坏。如果你有任何问题或需要进一步的帮助,请告诉我。