原文以及代码来自于,本人对每段代码进行了详细注释,希望对初学者有用。
https://scikit-learn.org/stable/auto_examples/tree/plot_tree_regression.html
决策树回归 Decision Tree Regression
带有决策树的 1D 回归。
决策树用于拟合正数曲线和加噪声观测。因此,它学习接近主数曲线的局部线性回归。
我们可以看到,如果树的最大深度(由最大深度参数控制)设置得过高,则决策树会学习训练数据的细节,并从噪声中学习,即它们过度拟合。
print(__doc__)
# Import the necessary modules and libraries
import numpy as np
from sklearn.tree import DecisionTreeRegressor
import matplotlib.pyplot as plt
# Create a random dataset
rng = np.random.RandomState(1)
X = np.sort(5 * rng.