决策树

决策树(Decision Tree)

每个节点上对某个特征进行判断,根据结果转向某个分支,如图是一个决策树示意图,每个节点根据某个条件分裂节点

1.在Python中调用决策树算法
from sklearn import tree
#决策树分类
dt=tree.DecisionTreeClassifier()
#决策树回归
dt=tree.DecisionTreeRegressor()
2.iris数据集上应用决策树分类
from sklearn import tree
#设定X,y值
features=[ 'SepalLengthCm', 'SepalWidthCm', 'PetalLengthCm']
X=iris[features]
from sklearn.preprocessing import LabelEncoder
le=LabelEncoder()
le.fit(iris[ 'Species'])
y=le.transform(iris[ 'Species'])
#设定模型
dt=tree.DecisionTreeClassifier()
#训练模型,并得到准确率
from sklearn.model_selection import cross_val_score
score=cross_val_score(dt,X,y,cv= 5,scoring= 'accuracy')
print(np.mean(score))
#和KNN分类的结果进行比较,你会发现什么结论?
3.iris数据集上应用决策树回归
from sklearn import tree
#重新设定X,y值,回归对象是iris花的PetalWidthCm
features=[ 'SepalLengthCm', 'SepalWidthCm', 'PetalLengthCm']
X=iris[features]
y=iris[ 'PetalWidthCm']
#设定决策树回归的模型
dt=tree.DecisionTreeRegressor()
from sklearn.model_selection import cross_val_score
scores=-cross_val_score(dt,X,y,scoring= 'neg_mean_squared_error')
print(np.mean(scores))
#复习之前的课程中关于linear regression的内容,比较KNN回归、线性回归的结果和决策树回归的结果有什么不同

随机森林

随机森林算法可以用于解决分类和回归问题,在决策树的基础上,引入了多棵决策树,并综合所有决策树,根据少数服从多数(majority voting)或者求平均值等原则,得出结果,下图是随机森林的示意图:

一般而言,随机森林的分类和回归的效果会比KNN、Decision Tree更好

集成学习:构建多个模型,使用某种策略将多个结果集成起来,作为最终结果,随机森林也属于集成学习,随机森林回归可以通过对各个模型结果加权平均得到结果,随机森林分类可以通过majority voting原则来决定结果

1.Python调用随机森林算法
from sklearn import ensemble
#随机森林分类
rf=ensemble.RandomForestClassifier(决策树数)
#随机森林回归
rf=ensemble.RandomForestRegressor(决策树数)
rf.fit(X,y)
2.iris数据集上应用随机森林分类
from sklearn import ensemble
#设定随机森林分类模型
rf=ensemble.RandomForestClassifier( 10)
from sklearn.model_selection import cross_val_score
#随机森林分类,X,y可以根据你想探究的字段之间的关系进行设置
features=[ 'SepalLengthCm', 'SepalWidthCm', 'PetalLengthCm']
X=iris[features]
from sklearn.preprocessing import LabelEncoder
le=LabelEncoder()
le.fit(iris[ 'Species'])
y=le.transform(iris[ 'Species'])
#评估分类模型性能
score=cross_val_score(rf,X,y,cv= 5,scoring= 'accuracy')
print(np.mean(score))
#随机森林的计算时间和决策树(基分类器)的数量成正比,尝试调整随机森林中的决策树的数量,看看分类的准确率是如何变化的
#将结果和KNN、DecisionTree分类的结果进行比较,看看你能得出什么结论
3.iris数据集上随机森林回归
from sklearn import ensemble
#设定随机森林回归模型
rf=ensemble.RandomForestRegressor( 10)
#随机森林分类,X,y可以根据你想探究的字段之间的关系进行设置
features=[ 'SepalLengthCm', 'SepalWidthCm', 'PetalLengthCm']
X=iris[features]
y=iris[ 'PetalWidthCm']
#评估模型性能
score=-cross_val_score(rf,X,y,cv= 5,scoring= 'neg_mean_squared_error')
print(np.mean(score))
#随机森林的计算时间和决策树(基分类器)的数量成正比,但是基分类器的数量和结果准确率却不一定成正比,尝试调整随机森林中的决策树的数量,看看分类的准确率是如何变化的
#将结果和KNN、DecisionTree分类的结果进行比较,看看你能得出什么结论

决策树(Decision Tree)

每个节点上对某个特征进行判断,根据结果转向某个分支,如图是一个决策树示意图,每个节点根据某个条件分裂节点

1.在Python中调用决策树算法
from sklearn import tree
#决策树分类
dt=tree.DecisionTreeClassifier()
#决策树回归
dt=tree.DecisionTreeRegressor()
2.iris数据集上应用决策树分类
from sklearn import tree
#设定X,y值
features=[ 'SepalLengthCm', 'SepalWidthCm', 'PetalLengthCm']
X=iris[features]
from sklearn.preprocessing import LabelEncoder
le=LabelEncoder()
le.fit(iris[ 'Species'])
y=le.transform(iris[ 'Species'])
#设定模型
dt=tree.DecisionTreeClassifier()
#训练模型,并得到准确率
from sklearn.model_selection import cross_val_score
score=cross_val_score(dt,X,y,cv= 5,scoring= 'accuracy')
print(np.mean(score))
#和KNN分类的结果进行比较,你会发现什么结论?
3.iris数据集上应用决策树回归
from sklearn import tree
#重新设定X,y值,回归对象是iris花的PetalWidthCm
features=[ 'SepalLengthCm', 'SepalWidthCm', 'PetalLengthCm']
X=iris[features]
y=iris[ 'PetalWidthCm']
#设定决策树回归的模型
dt=tree.DecisionTreeRegressor()
from sklearn.model_selection import cross_val_score
scores=-cross_val_score(dt,X,y,scoring= 'neg_mean_squared_error')
print(np.mean(scores))
#复习之前的课程中关于linear regression的内容,比较KNN回归、线性回归的结果和决策树回归的结果有什么不同

随机森林

随机森林算法可以用于解决分类和回归问题,在决策树的基础上,引入了多棵决策树,并综合所有决策树,根据少数服从多数(majority voting)或者求平均值等原则,得出结果,下图是随机森林的示意图:

一般而言,随机森林的分类和回归的效果会比KNN、Decision Tree更好

集成学习:构建多个模型,使用某种策略将多个结果集成起来,作为最终结果,随机森林也属于集成学习,随机森林回归可以通过对各个模型结果加权平均得到结果,随机森林分类可以通过majority voting原则来决定结果

1.Python调用随机森林算法
from sklearn import ensemble
#随机森林分类
rf=ensemble.RandomForestClassifier(决策树数)
#随机森林回归
rf=ensemble.RandomForestRegressor(决策树数)
rf.fit(X,y)
2.iris数据集上应用随机森林分类
from sklearn import ensemble
#设定随机森林分类模型
rf=ensemble.RandomForestClassifier( 10)
from sklearn.model_selection import cross_val_score
#随机森林分类,X,y可以根据你想探究的字段之间的关系进行设置
features=[ 'SepalLengthCm', 'SepalWidthCm', 'PetalLengthCm']
X=iris[features]
from sklearn.preprocessing import LabelEncoder
le=LabelEncoder()
le.fit(iris[ 'Species'])
y=le.transform(iris[ 'Species'])
#评估分类模型性能
score=cross_val_score(rf,X,y,cv= 5,scoring= 'accuracy')
print(np.mean(score))
#随机森林的计算时间和决策树(基分类器)的数量成正比,尝试调整随机森林中的决策树的数量,看看分类的准确率是如何变化的
#将结果和KNN、DecisionTree分类的结果进行比较,看看你能得出什么结论
3.iris数据集上随机森林回归
from sklearn import ensemble
#设定随机森林回归模型
rf=ensemble.RandomForestRegressor( 10)
#随机森林分类,X,y可以根据你想探究的字段之间的关系进行设置
features=[ 'SepalLengthCm', 'SepalWidthCm', 'PetalLengthCm']
X=iris[features]
y=iris[ 'PetalWidthCm']
#评估模型性能
score=-cross_val_score(rf,X,y,cv= 5,scoring= 'neg_mean_squared_error')
print(np.mean(score))
#随机森林的计算时间和决策树(基分类器)的数量成正比,但是基分类器的数量和结果准确率却不一定成正比,尝试调整随机森林中的决策树的数量,看看分类的准确率是如何变化的
#将结果和KNN、DecisionTree分类的结果进行比较,看看你能得出什么结论

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值