自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 集成算法

Stacking就是通过模型对原数据拟合的堆叠进行建模,他首先通过基学习器学习原数据,然后这几个基学习器都会对原数据进行输出,然后将这几个模型的输出按照列的方式进行堆叠,构成了 ( m , p ) (m,p)(m,p) 维的新数据,m代表样本数,p代表基学习器的个数,然后将新的样本数据交给第二层模型进行拟合。当有一个新的输入样本进入的时候,就让森林中的每一棵决策树分别进行判断,预测时使用投票结果最多的分类,也是少数服从多数的算法。注意,它不是把模型的结果组织起来,而把模型组织起来。聚合多个分类或回归模型。

2023-09-22 17:07:32 96

原创 逻辑回归

逻辑回归的核心思想是将线性回归的输出结果通过一个函数转换成概率值,从而实现对样本的分类。接着,我们使用模型对测试集进行预测,并计算模型的准确率。逻辑回归中,为了将线性回归的输出结果转换为概率值,通常采用 Sigmoid 函数。逻辑回归算法的训练过程是寻找一组参数 w 和 b,使得预测的概率值与实际标签的差异最小。2.多分类问题:通过 One-vs-All 或 One-vs-One 策略将逻辑回归扩展到多分类任务。4.概率预测:除了分类结果,逻辑回归还可以输出样本属于某一类别的概率值。

2023-09-22 13:38:19 56

原创 机器学习算法(2)

无监督学习则没有明确目的的训练方式,对于可能得到的结果可以说是无法预测的。无监督学习(Unsupervised Learning)是和监督学习相对的另一种主流机器学习的方法,无监督学习是没有任何的数据标注只有数据本身。简单说就是一种自动分类的方法,在监督学习中,你很清楚每一个分类是什么,但是聚类则不是,你并不清楚聚类后的几个分类每个代表什么意思。每个聚类的重心的新位置是通过计算该聚类中所有数据点的平均位置得到的。1.定义 K 个重心。监督学习解决的是分类和回归问题,而无监督学习解决的主要是聚类和降维问题。

2023-09-19 17:37:19 28

原创 机器学习算法(1)

​ 假设有训练数据集合,其中特征向量X = ( x 1 , x 2 , ⋅ ⋅ ⋅ , x n ) X=(x_1,x_2,···,x_n)X=(x1​,x2​,⋅⋅⋅,xn​)对应分类变量y,可以使用贝叶斯理论:P(y∣X)=P(X∣y)P(y)P(X)。​ KNN算法的原理是:将测试数据的特征与训练集中对应的特征进行比较,找到训练集中最为相似的前K个数据,则该测试数据对应的类别就是K个数据中出现次数最多的那个分类。​ 分类:训练数据是特征向量与其对应的标签,同样通过计算新的特征向量得到所属的标签。

2023-09-19 17:17:09 38

原创 机器学习模型评估指标

F1指标:2/F1 = 1/Precision + 1/Recall。召回率表现出在实际正样本中,分类器能预测出多少。预测为正的里面有多少真正是正的概率为查准率。ROC曲线离对角线越近,模型的准确率越低。2、精确率(Precision)1、准确率(Accuracy)3、召回率(Recall)

2023-09-06 17:58:57 107

原创 机器学习笔记

在python中,我们可以使用sklearn库构建各种机器学习模型,如线性回归模型,决策树模型,支持向量机模型等等。2.数据清理:补充缺失值,查找离群值,消除噪声数据,将数据格式标准化,还可以进行特征提取、归一化等操作,下面代码是对数据进行标准化。构建好模型后,我们要使用数据集对模型进行训练。数据集通常分为训练集和测试集,可以使用sklearn库进行数据分割。训练完成后,我们对模型进行评估。可以使用各种指标评估模型的性能,例如准确率、精度、召回率、F1值等。将数据分割好后对模型进行训练。

2023-09-06 17:33:56 30

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除