机器学习
文章平均质量分 84
浪漫的诗人
可接毕设、期末作业
展开
-
机器学习——Kmeans聚类算法
如果重新计算的中心点new_center(i)与原来的中心点center(i)的距离大于一定的阈值(该阈值可以设定),那么认为算法尚未收敛,使用new_center(i)代替center(i)(如图,中心点从红色点转移到绿色点),转步骤3;可以从K=1开始,并且k值不断的增加,通常,随着k的增加,类中的方差会急剧的下降,当k达到一定大的时候,方差的下降会明显减慢(至于慢道何种程度,可以设阈值),此时,就选取到了最佳的k值。当然,最终的结果不一定就是真实的那一组中心点,算法会尽量向真实的靠近。原创 2023-06-16 09:33:50 · 184 阅读 · 0 评论 -
机器学习实践——Bank
文章目录一、实践流程二、问题识别三、数据准备 3.1数据文件(csv文件) 3.2数据特征 3.3数据样本示例四、数据分析处理 4.1数据分析前的准备 4.2基础流程 4.3正式进行数据处理 4.3.1导入数据集,进行数据读取 4.3.2数据分析处理考虑的维度 4.3.3数据深入分析五、数据可视化 5.1 绘制条形图 5.2 绘制饼状图 5.3 绘制关系图六、模型选择及训练 6.1数据集的划分 6.2模型的选择 6.3模型训练 6.4模型预测及评价七、模型优化(参数调整) 7.1优化方向 7.2减弱数据不平原创 2023-06-12 18:34:18 · 404 阅读 · 0 评论 -
机器学习大作业
这是机器学习的一个大作业,主要用到了逻辑斯蒂算法、KNN算法、随机森林算法。数据集是糖尿病的数据集。原创 2023-06-07 18:40:16 · 1408 阅读 · 3 评论 -
Boosting算法
它首先使用一个基本分类器(如决策树、支持向量机等)对样本进行分类,然后根据分类结果对错分样本的权重进行调整,使错分样本的权重增加,而正确分类样本的权重减少。使得之前弱学习器1学习误差率高的训练样本点的权重变高,使得这些误差率高的点在后面的羽学习器2中得到更多的重视。然后基于调整权重后的训练集来训练弱学习器2.,如此重复进行,直到弱学习器数达到事先指定的数目T,最终将这T个弱学习器通过集合策略进行整合,得到最终的强学习器。通过每一轮训练样本的动态权重,可以让训练的焦点集中到难分类的样本上。原创 2023-05-25 20:50:50 · 1508 阅读 · 1 评论 -
机器学习——决策树
决策树是一种解决分类问题的算法。决策树算法采用树形结构,使用层层推理来实现最终的分类。根节点:包含样本的全集内部节点:对应特征属性测试叶节点:代表决策的结果预测时,在树的内部节点处用某一属性值进行判断,根据判断结果决定进入哪个分支节点,直到到达叶节点处,得到分类结果。举个例子:银行要用机器学习算法来确定是否给客户发放贷款,为此需要考察客户的年收入,是否有房产这两个指标。领导安排你实现这个算法,你想到了最简单的线性模型,很快就完成了这个任务。首先判断客户的年收入指标。原创 2023-05-24 17:56:57 · 292 阅读 · 0 评论 -
集成算法、随机森林
它属于集成学习中的Bagging方法,关系如下图:解释随机森林之前,需要了解决策树,请移步如下链接。随机森林是由很多决策树构成的,不同决策树之间没有关联。当我们进行分类任务时,新的输入样本进入,就让森林中的每一棵决策树分别进行判断和分类,每个决策树会得到一个自己的分类结果,决策树的分类结果中哪一个分类最多,那么随机森林就会把这个结果当做最终的结果。原创 2023-05-24 17:41:46 · 70 阅读 · 0 评论 -
支持向量机
SVM将每条有标签的记录绘制为N维空间有坐标的点,它在保证所有训练数据分类正确的前提下,最大化分类超平面的最小距离,SVM的核心在于寻找最有的超平面。SVM本质是量化两类数据差异的方法。在上图,把梨和分类,有许多条线,但是哪一条线最好,样本点与线的距离也有意义,代表着分类的可信程度。支持向量积就是找到这样一条最优直线,让直线两边的点与它的距离是最大的。原创 2023-05-23 21:36:57 · 277 阅读 · 0 评论 -
贝叶斯理论
在朴素贝叶斯算法中,假如两个特征之间是相互独立的,在以上的例子中,认为关键词相互独立,则他们的顺序和上下文关系并不影响结果,哪怕他们表达的意思天差地别,维度之间的相互独立的假设,实在太过于简单粗暴,因此被称为。但是,贝叶斯解决的是一个逆概率的问题,在上面的例子,假如我们并不知道抽奖桶里有什么,而是摸出一个球,通过观察这个球的颜色,来预测这个桶里面白球与黑球的比例。比如一个抽奖桶例有10个球,里面有2个白球,8个黑球,抽到白球,就算中奖,伸手进去随便模出一颗球,摸出是中奖球的概率有多大。原创 2023-05-23 16:46:56 · 93 阅读 · 0 评论