自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 机器学习——pca

1 PCA的定义主成分分析(PCA,Principal Component Analysis)是一种常用的数据降维技术。它通过线性变换将原始数据映射到一个新的坐标系中,使得数据在新坐标系中的方差尽可能大,从而实现降维。PCA的主要目标是减少数据的维度,同时尽可能保留数据的主要特征和信息。线性变换:PCA通过线性变换将高维数据映射到低维空间。最大化方差:PCA选择的变换方向(主成分)是使得数据投影后的方差最大化的方向。正交主成分:各个主成分之间是正交的,即相互独立。

2024-06-18 01:01:10 831 1

原创 机器学习——支持向量机(SVM)

支持向量机是一种强大的机器学习算法,用于分类和回归。它通过最优超平面来分隔不同类别的样本,并具有较好的泛化能力和鲁棒性。然而,SVM在计算复杂度和参数选择方面存在挑战。在实际应用中,需要适当调整参数和进行模型优化。b。

2024-06-09 21:40:21 3173

原创 机器学习——逻辑回归

目录一. 逻辑回归(Logistic Regression)二. 逻辑回归模型的算法原理1. 处理数据2. 引入sigmoid函数3. 引入梯度下降法三. 逻辑回归与线性回归的相同点和不同点四. 算法实现五. 逻辑回归的优缺点 逻辑回归是一个非常经典的解决分类问题的机器学习方法,该算法的主要思想是将输入变量的线性组合映射到0到1之间的概率,用于预测二元输出变量。假设我们有一个二分类问题,需要预测一个样本属于两个类别中的哪一个。1)公式:2)sigmoid图像:注:将线性回归的结果映射到[0,1]区间上

2024-05-29 13:49:10 1112

原创 机器学习——贝叶斯算法

贝叶斯公式的用途在于通过己知三个概率来推测第四个概率。它的内容是:在 B 出现的前提下,A 出现的概率等于 A 出现的前提下 B 出现的概率乘以 A 出现的概率再除以 B 出现的概率。通过联系 A 与 B,计算从一个事件发生的情况下另一事件发生的概率,即从结果上溯到源头(也即逆向概率)。总的来说,贝叶斯算法提供了一种基于概率的框架,可以有效地处理分类问题和概率估计问题。它的优点包括简单、易于实现,适用于各种数据类型,尤其在处理高维数据和大规模文本数据时表现出色。

2024-05-13 21:44:50 911 1

原创 决策树及模型评估

1. 决策树模型的实例2. 信息熵信息熵H(X)的计算公式如下。其中X表示随机变量,随机变量的取值为X1,X2,X3…,在n分类问题中便有n个取值,例如,在员工离职预测模型中,X的取值就是“离职”与“不离职”两种;pi表示随机变量X取值为Xi的发生频率,且有Σpi=1。当引入某个用于进行分类的变量A(如“满意度<5”),则根据变量A划分后的信息熵又称为条件熵,其计算公式如下。其中S1、S2为划分后的两类各自的样本量,H(X1)、H(X2)为两类各自的信息熵。

2024-04-30 14:21:55 774

原创 分类模型评估

针对类别不平衡的问题,可以采用一些方法来改善模型性能,例如使用重采样技术、调整分类阈值等。对于分类模型的评估,我们需要综合考虑多个指标,并根据具体业务需求选择合适的评估方法和调整策略。这样才能更准确地评估模型的性能和进行模型的优化TN+FP+

2024-04-28 15:00:52 1847

原创 KNN算法原理及python代码实现

(英文为K-Nearest Neighbor,因而又简称KNN算法)是非常经典的机器学习算法,用于分类和回归问题。其基本原理是对于一个新样本,K近邻算法的目的就是在已有数据中寻找与它最相似的K个数据,或者说“离它最近”的K个数据,如果这K个数据大多数属于某个类别,则该样本也属于这个类别。和K值的选取很大程度决定了KNN算法的结果;点距离则一般使用欧氏距离或曼哈顿距离。

2024-04-16 16:52:33 3351 1

原创 分类模型评估

K最近邻(K-Nearest Neighbors,KNN)是一种简单而常用的机器学习算法,用于分类和回归问题。其基本原理是通过计算待分类样本与训练集中所有样本的距离,然后选取距离最近的K个样本,根据这K个样本的类别(对于分类问题)或者数值(对于回归问题)来预测待分类样本的类别或数值。然后使用一个简单的二维数据集进行训练和预测,其中X_train是特征数据,y_train是标签数据。最后,对X_test进行预测并输出结果。代码说明:在上面示例中,首先定义了一个简单的KNN类,包括。

2024-04-02 18:15:02 903 1

原创 Anaconda和VSCode的安装教程

(1)百度输入网址“https://www.anaconda.com/”,进入Anaconda官网。点击“Free Download”进入后再点击“Download”即可下载。(例:新建一个文件夹名称可为“D:\Anaconda”,然后选择安装路径时选择该文件夹)(1)打开“此电脑”,右键点击“属性”,选择“高级系统设置”,点击“环境变量”。④输入“active”,回车,之后输入“python”。三条变量信息新建完成后点击“确定”。(2)在系统变量中找到“Path”,双击进入。(3)点击“新建”。

2024-03-19 17:39:53 423 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除