回归预测模型衡量标准

“点对点”之间的误差

  • Residural:
     
     
  • SSE :
     
     
  • MSE :
     
     
  • RMSE :
     
     
  • SAE :
     
     
  • MAE :
     
     
  • MAPE : (是一个相对值)
     
 

"点对全"之间的误差

  • SSR :
     
     
  • SST :
     
  • R-Square :
     
 
备注:y的均值:

 

转载于:https://www.cnblogs.com/zichun-zeng/p/8097455.html

XGBoost是一种常用的机器学习算法,可用于分类和回归问题。在回归问题中,XGBoost可以使用梯度提升树(Gradient Boosting Tree)来进行预测。 以下是使用XGBoost进行回归预测的一般步骤: 1. 收集数据并进行数据处理和清洗。 2. 将数据集分成训练集和测试集。 3. 使用XGBoost库加载数据并进行模型训练。使用XGBoost的API,我们可以设置一些参数,例如树的数量,深度,学习率等等。 4. 对测试集进行预测,并计算预测结果与真实值之间的误差(例如均方误差)。 5. 根据误差评估模型的性能。如果误差较大,则需要调整模型参数或者重新选择特征。 6. 使用训练好的模型对新的数据进行预测。 下面是一个简单的XGBoost回归预测模型的Python代码示例: ```python # 加载必要的库 import xgboost as xgb from sklearn.metrics import mean_squared_error from sklearn.datasets import load_boston from sklearn.model_selection import train_test_split # 加载数据集 boston = load_boston() X_train, X_test, y_train, y_test = train_test_split(boston.data, boston.target, test_size=0.2, random_state=123) # 将数据转换成DMatrix格式 train_data = xgb.DMatrix(X_train, label=y_train) test_data = xgb.DMatrix(X_test, label=y_test) # 定义模型参数 params = { 'objective': 'reg:squarederror', 'colsample_bytree': 0.3, 'learning_rate': 0.1, 'max_depth': 5, 'alpha': 10 } # 训练模型 model = xgb.train(params, train_data, 100) # 对测试集进行预测 y_pred = model.predict(test_data) # 计算均方误差 mse = mean_squared_error(y_test, y_pred) print("Mean Squared Error:", mse) ``` 在这个示例中,我们加载了波士顿房价数据集,并使用XGBoost训练了一个回归模型。我们设置了模型参数,然后使用train函数训练模型。最后,我们对测试集进行预测,并计算预测结果与真实值之间的均方误差。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值