ML
菜鸟的梦幻日记
这个作者很懒,什么都没留下…
展开
-
Stacking原理及代码
原理Stacking简单理解就是讲几个简单的模型,一般采用将它们进行K折交叉验证输出预测结果,然后将每个模型输出的预测结果合并为新的特征训练集(第一层模型),然后用这个新的特征训练集和标签加以训练(第2层模型,一般用线性回归/分类这种简单的)。步骤:1.将训练集分成K份(K个基分类器),每个基分类器取k-1份(图中每个Model蓝色的部分)做训练,剩下的一份(图中每个model橙色的部分)做预测。然后将这k份(每个Model橙色的部分)整合起来作为训练数据。2.然后将这些新的训练数据和真实的标签一原创 2021-03-25 16:13:41 · 2288 阅读 · 0 评论 -
Adaboost 原理及代码
分类代码class AdaBoost: def __init__(self,n_estimators=50, learning_rate=1.0): #n_estimators=50:分类器数目 self.clf_num = n_estimators self.learning_rate = learning_rate def init_args(self,datasets,labels): self.X = datasets原创 2021-03-24 20:08:06 · 441 阅读 · 0 评论 -
概率导论,习题加代码实现
代码:#成功概率def U_probility(n): if n == 1: return 0.8 else: Un = U_probility(n-1)*0.8 + B_probility(n-1)*0.4 return Un#失败概率def B_probility(n): if n == 1: return 0.2 else: Bn = U_probility(n-1)*0.2 + B_p..原创 2021-03-21 17:20:01 · 145 阅读 · 0 评论 -
线性回归(两种方式代码实现)
方式一:最小二乘法(正规方程)公式推导其中:代码实现:1.导入库import numpy as npfrom sklearn.datasets import load_bostonboston = load_boston()x = boston.datay = boston.target2.由于我们的特征中没有1,所以需要插入1然后我们需要把1和特征放在一起X_b = np.hstack([np.ones((len(x),1)),x]3.用正规方程求解参数thet原创 2021-03-18 14:08:48 · 4349 阅读 · 1 评论