- 博客(4)
- 收藏
- 关注
原创 Boosting的原理和案例
boosting就是通过不断地增大分类错误的样本的权重,降低分类正确的权重,从而生成不同的弱分类器,并通过多数投票等组合形式,得到最终分类结果。# 引入数据科学相关工具包:import numpy as npimport pandas as pd import matplotlib.pyplot as pltplt.style.use("ggplot")%matplotlib inlineimport seaborn as sns# 加载训练数据: wine = pd.
2021-04-20 22:43:15 457
原创 集成学习--bagging
与投票法不同的是,Bagging不仅仅集成模型最后的预测结果,同时采用一定策略来影响基模型训练,保证基模型可以服从一定的假设。希望各个模型之间具有较大的差异性,而在实际操作中的模型却往往是同质的,因此一个简单的思路是通过不同的采样增加模型的差异性。Bagging的核心在于自助采样(bootstrap)这一概念,即有放回的从数据集中进行采样,也就是说,同样的一个样本可能被多次进行采样。统计学上的重采样。Bagging的基本流程:首先我们随机取出一个样本放入采样集合中,再把这个样本放回初始数据集,重复N次采
2021-04-17 02:03:12 307
原创 集成学习1-投票法的原理和案例分析
投票法的原理在同一训练集上,训练得到多个分类或回归模型,然后通过一个投票器,通过某种加权方式,输出得票率最高的结果。集成模型好于单个分类器的原因集成模型好于单个分类器的原因假设:n个基分类器的出错率都是 ,且相互独立,则n个基分类器的结果中,出现k个错误的数量服从二项分布,对集成模型(简单多数投票)来说,n个结果中,有K个错误的概率是:当K>n/2时,集成模型输出错误结果import numpy as np import matplotlib.pyplot as plt plt.rc
2021-04-14 23:31:25 442 1
转载 MATLAB安装配置libsvm(总结帖)
MATLAB安装配置libsvm,总结帖版本操作流程问题解决错误使用mexgcc:error测试svmpredict显示值为空资料推荐参考版本本人PC系统Windows10 64bit,matlab安装的2016a 64bit, libsvm安装的version3.2.2注:不要用MATLAB2014a, 如果是这个版本,请选择重装!!!操作流程从林教授的网站上下载: http://w...
2019-06-15 10:28:36 2061 7
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人