- 博客(8)
- 收藏
- 关注
原创 随机森林算法
1、集成学习思想(ensemble): 集成学习就是“博采众长”,将一组弱学习器通过一定方法结合在一起得到强学习器,这个强学习器的泛化能力相对任何一个弱学习器都要好,甚至还有起到三个臭皮匠,赛过诸葛亮的效果。集成学习的分类:1.Bagging(bootstrap aggregating自助聚集):装袋。并行处理,基本思想为:假设需要T个学习器,首先从数据集中采样出T个数据集(自主采样法bootstrap sampling:有放回的采样),然后基于这T个数据集训练分类器,再将这些基分类器进..
2022-04-29 11:01:22 188
原创 K-means聚类算法
1.概述K-means算法是最为经典的基于划分的聚类算法,基本思想是:以空间中k个点为中心进行聚类,对最靠近他们的对象归类,通过迭代的方法,逐次更新各聚类中心的值,直至得到最好的聚类结果。K-means算法接受参数k,然后将事先输入的n个数据对象划分为k个聚类以便使得所获得的聚类满足同一聚类的对象相似度较高,而不同聚类中的对象相似度较小。聚类相似度是利用各个聚类中对象的均值所获得一个“中心对象”(引力中心)来进行计算的2.实现原理基本思想是初始随机给定k个簇中心,按照最近邻原则把待分类样本点
2022-04-29 10:44:18 237
原创 特征值分解SVD
特征值分解:线代里的相似对角化,必须是方阵奇异值分解:可以不是方阵P(m*m维)为左奇异矩阵,Q(n*n维)为右奇异矩阵,∑对角矩阵(m*n维)左奇异矩阵对矩阵进行行压缩,右奇异矩阵对矩阵进行列压缩。奇异值分解的应用:降维和压缩numpy.linalg.svd函数函数:np.linalg.svd(a,full_matrices=1,compute_uv=1)。参数:a是一个形如(M,N)矩阵 full_matrices的取值是为0或者1,默认值为1,这时u的大小
2022-04-29 10:42:46 133
原创 主成分分析PCA
PCA的目的/作用:PCA是最常用的线性降维方法,他的目标是通过某种线性投影,将高维的数据映射到低维的空间中,并期望在所投影的维度上数据的信息量最大(方差最大),以此使用较少的数据维度,同时保留住较多的原数据点的特性。PCA降维的目的就是为了在尽量保证“信息量不丢失”的情况下,对原始特征进行降维,也就是尽可能将原始特征往具有最大信息量的维度上进行投影。求解步骤:去除平均值(这一步不是独立于PCA的预处理步骤,而是PCA的定义规定的必须步骤,为了满足协方差矩阵的要求) 计算协方差矩阵(各维度
2022-04-29 10:40:28 191
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人