不同正则化策略对梯度提升效果的说明。 该示例取自Hastie等人2009。
使用的损失函数是二项式偏差。 通过收缩的规则化(learning_rate <1.0)可以显着提高性能。 与收缩相结合,随机梯度增强(子样本<1.0)可以通过减少包装的方差来产生更准确的模型。 没有收缩的子采样通常效果不佳。 减少方差的另一种策略是通过对随机森林中的随机分割类似的特征进行二次采样(通过max_features参数)。
import numpy as np
import matplotlib.pyplot as plt
from sklearn import ensemble
from sklearn import datasets
X, y = datasets.make_hastie_10_2(n_samples=12000, random_state=1)
X = X.astype(np.float32)
# map labels from {-1, 1} to {0, 1}
labels, y = np.unique(y, return_inverse=True)
X_train, X_test = X[:2000], X[2000:]
y_train, y_test = y[:2000], y[2000:]
original_params = {'n_estimators': 1000, 'max_leaf_nodes': 4, 'max_depth': None, 'random_state': 2,
'min_samples_split': 5}
plt.figure()
for label, color, setting in [('No shrinkage', 'orange',