集成学习
陈陈的糖罐子
一个人工智能的菜鸟
展开
-
Kaggle介绍,数据分析
集成学习总结:案例来源:kaggle泰坦尼克号船员获救预测项目数据import pandas titanic = pandas.read_csv("titanic_train.csv")titanic# 空余的age填充整体age的中值titanic["Age"] = titanic["Age"].fillna(titanic["Age"].median())print(titanic.describe())titanicprint(titanic["Sex"].u原创 2021-11-15 11:01:18 · 1218 阅读 · 0 评论 -
(实战)Stacking和Voting介绍与使用
Stackingfrom sklearn import datasets from sklearn import model_selection from sklearn.linear_model import LogisticRegressionfrom sklearn.neighbors import KNeighborsClassifier from sklearn.tree import DecisionTreeClassifierfrom mlxtend.classifier原创 2021-11-15 09:28:13 · 1827 阅读 · 1 评论 -
Adaboost介绍与使用(实战)
boostingAdaBoost是英文“Adaptive Boosting”(自适应增强)的缩写,它的自适应在于:前一个基本分类器被错误分类的样本的权值会增大,而正确分类的样本的权值会减小,并再次用来训练下一个基本分类器。同时,在每一轮迭代中,加入一个新的弱分类器,直到达到某个预定的足够小的错误率或达到预先指定的最大迭代次数才确定最终的强分类器。例子步骤Adaboost训练过程1(二分类情况)Adaboost判断过程Adaboost算法流程2import numpy as npi原创 2021-11-12 10:33:16 · 2940 阅读 · 0 评论 -
随机森林RF介绍与使用(实操)
随机森林(RF)RF算法流程from sklearn import treefrom sklearn.model_selection import train_test_splitfrom sklearn.ensemble import RandomForestClassifierimport numpy as npimport matplotlib.pyplot as plt# 载入数据data = np.genfromtxt("LR-testSet2.txt", delimiter原创 2021-11-12 09:35:47 · 1456 阅读 · 0 评论 -
Bagginga介绍与使用(实战)
集成学习我们之前讨论的学习器都是单一的,独立的。整体表现比较差的学习器,在一些样本上的表现是否有可能会超过“最好”的学习器。集成学习就是组合多个学习器,最后可以得到一个更好的学习器。bagging有放回的抽样例子# 导入算法包以及数据集from sklearn import neighborsfrom sklearn import datasetsfrom sklearn.ensemble import BaggingClassifierfrom sklearn import原创 2021-11-12 09:17:05 · 369 阅读 · 0 评论