自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 主成分分析 PCA

它的主要目标是找到数据中的主要特征或主成分,通过保留最重要的信息降低数据的维度,同时尽量减少信息损失。这些方法可以根据数据的特点和需求选择合适的维度约减方法,并根据数据的性质减少特征维度,以便更好地分析和处理数据。PCA的核心方法是通过对数据的协方差矩阵进行特征值分解,获得特征值和特征向量,进而选择主成分进行数据投影,实现维度的约减。2. 维度灾难:随着维度的增加,数据空间变得非常大,而训练集的样本数量往往远远不够填满这个空间,因此导致了维度灾难问题,即数据的稀疏性增加,模型的泛化能力下降。

2023-12-27 16:00:25 840 1

原创 逻辑斯蒂回归

逻辑函数的公式为:\[ P(Y=1|X) = \frac{1}{1+e^{-z}} \] 其中,\( P(Y=1|X) \) 表示在给定自变量 X 的条件下因变量 Y 为1的概率,\( z \) 是线性组合的结果。逻辑斯蒂回归的基本原理是,给定一组特征变量,它将计算出一个以这些变量线性组合的值作为输入,并将其通过逻辑函数(如sigmoid函数)转化为一个概率值,表示属于某一类别的概率。总的来说,逻辑斯蒂回归通过将线性组合的结果映射到[0,1]区间内,实现了对二分类问题的建模和预测。

2023-12-20 21:37:59 378 1

原创 logistic回归

在Logistic回归中,特征通过一个线性组合与权重相乘后的和进行加权,然后通过逻辑函数进行转换,得到一个0到1之间的概率值。需要注意的是,Logistic回归本质上是一个线性模型,它试图找到一个决策边界来区分不同的类别。需要注意的是,当数据集不是线性可分的时候,Logistic回归可能无法找到一个完美的决策边界来分类所有的数据点。运行代码后,你将得到一个生成的散点图,其中不同类别的点将具有不同的颜色,并且有一条红色的直线表示决策边界。这只是一个简单的例子,你可以根据需要进行更进一步的调整和扩展。

2023-12-04 20:24:38 35

原创 朴素贝叶斯分类

朴素贝叶斯分类的基本思想是通过已知类别的训练样本学习先验概率和条件概率,并利用这些概率推断未知类别样本的类别。具体来说,给定一个待分类的样本,朴素贝叶斯分类器根据每个特征的条件概率以及类别的先验概率计算出该样本属于每个类别的后验概率,并将后验概率最大的类别作为其预测结果。然而,朴素贝叶斯分类器的假设较为简化,忽略了特征之间的相关性,有时可能会导致分类效果降低。1. 模型简单:朴素贝叶斯分类器的计算复杂度较低,可以有效处理高维特征空间的分类问题。运行代码并观察输出结果,即可得到该新样本的预测类别。

2023-11-21 15:02:33 33

原创 关于决策树的见解和相关实列

在决策树中,每个节点代表一个特征,用于对数据集进行划分。每个分支代表该特征的一个取值,决策树通过不断地对特征进行划分,逐步将数据分类到最终的叶子节点中,叶子节点则表示最终的决策结果。这是一个使用PyCharm编写的示例代码,展示了如何使用决策树算法进行分类,通过运行这个示例代码,你可以使用决策树算法来分类鸢尾花数据,并获取模型在测试集上的准确率。以上所述,我觉得决策树是一种强大的机器学习算法,适用于许多领域,但在使用时需要考虑其优缺点,并在实际应用中进行适当的预处理和调参以提高模型性能。

2023-11-06 21:58:12 40

原创 ROC曲线以及PR曲线的原理

ROC曲线是利用分类模型在不同阈值下的真阳性率(True Positive Rate,TPR)和假阳性率(False Positive Rate,FPR)绘制的曲线。精确率是分类器正确分类为阳性的样本数除以模型预测为阳性的样本总数,而召回率是分类器正确分类为阳性的样本数除以真实阳性样本总数。ROC曲线(Receiver Operating Characteristic,又称为受试者工作特征曲线)和PR曲线(Precision-Recall Curve)是机器学习中常用的评估模型性能的工具。

2023-10-23 20:13:49 127

原创 k邻近算法讲解

所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。KNN是一种分类(classification)算法,它输入基于实例的学习(instance-based learning),属于懒惰学习(lazy learning)即KNN没有显式的学习过程,也就是说没有训练阶段,数据集事先已有了分类和特征值,待收到新样本后直接进行处理。k-NN的基本思想是:对于新的数据点,在训练集中找到距离它最近的k个邻居,根据这k个邻居的类别进行投票,得到新的数据点的类别。

2023-10-09 19:55:28 33 1

原创 机器学习——vscode和anconda的安装

打开应用后在点击红标位置进行拓展,输入:Chinese (Simplified) (简体中文) Language Pack for Visual Studio Code。特别提示,如果vscode连不上网络,可以试一下,关闭防火墙试一下(亲测有效)需要拓展语言也是在这位置,输入你需要的语言进行下载即可,列如,python等。wind+r,输入cmd,打开终端:输入conda --version。继续wind+r,输入cmd,在终端输入python。点击download进行下载下载好后进行正常安装。

2023-09-25 21:51:18 59 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除