sklearn机器学习之基于sin函数的回归决策树

1.导入相应包

import numpy as np
from sklearn.tree import DecisionTreeRegressor
from matplotlib import pyplot as plt

2.准备数据集

rng = np.random.RandomState(1)
X = np.sort(5 * rng.rand(80, 1), axis=0)
#ravel函数将原维数降一维
y = np.sin(X).ravel()

3.绘制图像

plt.figure()
plt.scatter(X, y, s=20, edgecolors='black', c='darkorange', label='data')

绘制图像如下
在这里插入图片描述

4.在y中添加噪声

y[::5] += 3 * (0.5 - rng.rand(16))
y[::5]

5.绘制图像

plt.figure()
plt.scatter(X, y, s=20, edgecolors='black', c='darkorange', label='data')

绘制图像如下
在这里插入图片描述

6.构造最大深度不同的决策会归树

regr_1 = DecisionTreeRegressor(max_depth=2)
regr_2 = DecisionTreeRegressor(max_depth=5)
regr_1.fit(X, y)
regr_2.fit(X, y)

7.生成测试集

#np.newaxis增维函数
X_test = np.arange(0.0, 5.0, 0.01)[:, np.newaxis]

8.分别利用两个函数进行测试

y_1 = regr_1.predict(X_test)
y_2 = regr_2.predict(X_test)

9.结果可视化

plt.figure()
plt.scatter(X, y, s=20, edgecolors="black", c="darkorange", label="data")
plt.plot(X_test, y_1, color="cornflowerblue", label="max_depth=2", linewidth=2)
plt.plot(X_test, y_2, color="yellowgreen", label="max_depth=5", linewidth=2)
plt.xlabel("data")
plt.xlabel("target")
plt.title("Decision Tree Regression")
plt.legend()
plt.show()

绘制图像如下
在这里插入图片描述
这里data点表示我们的训练集数据,蓝色线表示我们选择最大深度为2的回归决策树预测出来的决策边界,绿色线表示我们选择最大深度为5的回归决策树预测出来的决策边界,我们可以看到绿色线出现了过拟合现象,他将许多噪声点都加入到了决策边界,此时我们就可以降低最大深度减小过拟合现象。

  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值