自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 机器学习---主成分分析PCA

然后还需要这组基是线性无关的,我们一般用正交基,非正交的基也是可以的,不过正交基有较好的性质。设原始数据矩阵 X 对应的协方差矩阵为 C,而 P 是一组基按行组成的矩阵,设 Y=PX,则 Y 为 X 对 P 做基变换后的数据。所以,对于向量 (3, 2) 来说,如果我们想求它在(1,0)(1,0)(0,1)(0,1)这组基下的坐标话,分别内积即可。为了让协方差为 0,我们选择第二个基时只能在与第一个基正交的方向上进行选择,因此最终选择的两个方向一定是正交的。所以,我们大致可以得到一个结论,我们。

2023-12-19 15:28:41 843 1

原创 机器学习---支持向量机

核函数是特征转换函数,它可以将数据映射到高维特征空间中,从而更好地处理非线性关系。核函数的作用是通过计算两个样本之间的相似度(内积)来替代显式地进行特征映射,从而避免了高维空间的计算开销。在SVM中,核函数的选择非常重要,它决定了模型能够学习的函数空间。常见的核函数包括:线性核函数(Linear Kernel):最简单的核函数,它在原始特征空间中直接计算内积,适用于线性可分的情况。多项式核函数(Polynomial Kernel):通过多项式函数将数据映射到高维空间,可以处理一定程度的非线性关系。

2023-12-18 21:45:32 951 1

原创 机器学习-----logistic回归:分类问题

Logistic回归(logistic regression)是统计学习中的经典分类方法,实际上是在用线性回归模型的预测结果去逼近真实标记的对数几率,有的教材也称Logistic回归为对数几率回归。这里要注意,虽然带有回归的字眼,但是该模型是一种分类算法,Logistic回归是一种线性分类器,针对的是线性可分问题。利用Logistic回归进行分类的主要思想是:根据现有数据对分类边界线建立回归公式,以此进行分类。Logistic回归优点:计算代价不高,易于理解和实现缺点:容易欠拟合,分类精准可能不高。

2023-12-04 19:22:42 62

原创 机器学习----朴素贝叶斯

后验概率P(Y|X):事情已发生,要求这件事情发生的原因是由某个因素引起的可能性的大小,后验分布P(Y|X)表示事件X已经发生的前提下,事件Y发生的概率,称事件X发生下事件Y的条件概率。如果p 1 ( x , y ) > p 2 ( x , y ) p1(x,y) > p2(x,y)p1(x,y)>p2(x,y),那么类别为1。如果p 1 ( x , y ) < p 2 ( x , y ) p1(x,y) < p2(x,y)p1(x,y)<p2(x,y),那么类别为2。

2023-11-20 21:32:50 48 1

原创 机器学习---决策树

决策树是分类问题中最常用的模型之一,它的优势在于能够接受类别型的特征,分类效果与其他分类算法相当,训练和测试的效率高。决策树学习通常包括三个步骤:特征选择、决策树的生成和决策树的修剪。决策树由中间节点和叶子节点构成,中间节点包含决策函数用于决策的特征,叶子节点包含决策结果和类别标签。决策树学习算法通常采用启发式方法来建立次优决策树。在决策树的生成过程中,需要进行特征选择,常用的特征选择方法有信息增益、信息增益比和基尼指数。在决策树的修剪过程中,需要进行剪枝,常用的剪枝方法有预剪枝和后剪枝。

2023-11-06 20:20:31 34

原创 机器学习--PR和ROC曲线

ROC (Receiver Operating Characteristic Curve):受试者工作特征。类似P-R曲线,根据学习器的预测结果(概率)对样例排序,并逐个作为正例进行预测,以“假正例率(False Positive)”为横轴,“真正例率(True Positive)”为纵轴可得到ROC曲线。

2023-10-23 21:10:06 147

原创 机器学习——K近邻算法

K近邻算法(K-Nearest Neighbors,简称KNN)是一种用于分类和回归的统计方法。KNN 可以说是最简单的分类算法之一,同时,它也是最常用的分类算法之一。KNN 算法是有监督学习中的分类算法,它看起来和另一个机器学习算法 K-means 有点像(K-means 是无监督学习算法),但却是有本质区别的。虽然K近邻算法由以下几个有以下几个优点,但也不乏这几个缺点。优点简单好用,容易理解,精度高,理论成熟,既可以用来做分类也可以用来做回归;可用于数值型数据和离散型数据;

2023-10-09 21:54:10 123 1

原创 安装Anaconda和VScode

下载好之后进行安装记住安装的文件目录,在高级环境系统设置中设置path变量以管理员身份打开cmd进入conda(base)是基础环境接下来创建虚拟环境anaconda命令创建python版本为x.x,名字为test的虚拟环境。test文件可以在Anaconda安装目录envs文件下找到。(其中python的版本不能高于3.9)我创建了一个名为test,python版本为3.7.1的虚拟环境只需要输入命令activate test即可进入虚拟环境接下来这是一些经常用到的命令。

2023-09-25 21:04:38 59 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除