机器学习
文章平均质量分 91
Machine learning
纵深
人生如逆旅,我亦是行人。
展开
-
numpy详解
Numpy1.初步2.zeros函数,ones函数3.arange函数4.reshape函数5.nonzero函数6.eye函数7.random函数8.pad函数1.初步一般使用np(numpy)import numpy as np2.zeros函数,ones函数顾名思义zeros函数就是创建用0填充的矩阵,而ones函数则是创建用1填充的矩阵Z = np.zeros(10)print(Z)result:[0. 0. 0. 0. 0. 0. 0. 0. 0. 0.]Z = np.原创 2021-08-03 16:04:37 · 257 阅读 · 0 评论 -
多目标模拟退火算法
模拟退火算法SA模拟退火是一种通用概率算法,常用来在一定时间内寻找在一个很大搜寻空间中的近似最优解。算法得益于材料统计力学的研究成果。统计力学表明材料中粒子的不同结构对应与粒子的不同能量水平。在高温条件下,粒子的能量较高,可以自由运动和重新排列。在低温条件下,粒子能量较低。如果从高温开始,非常缓慢地降温(这个过程称为退火),粒子就可以在每个温度中达到热平衡。当系统完全被冷却,最终形成处于低能状态的晶体。设材料在状态i的能量为E(i),那么材料在温度T时从状态i进入状态j遵循如下规律,其中K是玻尔兹曼常原创 2021-03-23 17:05:34 · 7366 阅读 · 2 评论 -
多目标优化之帕累托最优
帕累托最优维基百科:帕累托最优是指资源分配的一种理想状态。给定固有的一群人和可分配的资源,如果从一种分配状态到另一种状态的变化中,在没有使任何人境况变坏的前提下,使得至少一个人变得更好,这就是帕累托改善。帕累托最优的状态就是不可能再有更多的帕雷托改善的状态;换句话说,不可能在不使任何其他人受损的情况下再改善某些人的境况。多目标优化多目标优化:此类问题很常见比如在购买汽车时降低成本,同时使舒适性最大化;在使车辆的燃料消耗和污染物排放最小化的同时将性能最大化,同时他还有一些条件约束。再者金融领域中,我们希原创 2021-03-22 21:25:00 · 9179 阅读 · 3 评论 -
详解k-means++
一、概述定义:k-means++是一种为k-means聚类算法选择初始值(或“种子”)的算法。它是NP-hard k-means问题的一种近似算法,它是一种避免标准k-means算法有时发现的较弱聚类的方法。K-means与K-means++:原始K-means算法最开始随机选取数据集中K个点作为聚类中心,而K-means++按照如下的思想选取K个聚类中心:假设已经选取了n个初始聚类中心(0<n<K),则在选取第n+1个聚类中心时:距离当前n个聚类中心越远的点会有更高的概率被选为第n+1个聚原创 2020-12-20 18:34:16 · 33495 阅读 · 6 评论 -
聚类外部指标 Mirkin指数(Rand指数变换)
聚类常用的外部指标有很多如Jaccard系数,FM指数,Rand指数,DB指数,Dunn指数。因为在阅读文献中发现了Mirkin指数,看了一下网上没有写很详细,故这里介绍Mirkin指数。预对于数据集D=x1,x2,...,xmD={x_{1},x_{2},...,x_{m}}D=x1,x2,...,xm,假定通过聚类给出的簇划分为C=C1,C2,...,CkC={C_{1},C_{2},...,C_{k}}C=C1,C2,...,Ck,参考模型(如果用于一致性聚类,这里是另一个聚类即可)原创 2020-12-18 10:13:17 · 1160 阅读 · 1 评论 -
一致性聚类
一致性聚类(共识聚类)定义:聚合多种聚类算法结果的方法,也称之为聚类集成或聚类的聚合。指的是对于一个特定的数据集已经获得了许多不同的(输入)聚类,并且希望找到一个单一的(一致的)聚类,在某种意义比现有的聚类更加合适。因此,一致性聚类是协调来自不同来源或同一算法的不同运行的关于同一数据集的聚类信息的问题。非监督学习的一致性聚类类似于监督学习的中的集成学习(顾名思义,就是将多个单一模型进行组合,最后形成一个更好的模型的过程。之所以组合多个单一学习器,是因为很多时候单一学习器的效果不够理想,多个模型组合可以互原创 2020-12-13 22:46:12 · 5570 阅读 · 2 评论 -
周志华《机器学习》第二章读书笔记以及课后习题答案
读书笔记1.分类错误的样本数占样本总数的比例称为错误率,如果在m个样本中有a个样本分类错误,设错误率为E,精度为A,则E=a/m,A=(1−E)∗100%E = a/m,A=(1-E)*100\% E=a/m,A=(1−E)∗100%2.学习器的实际预测输出与样本的真实输出之间的差异称为“误差”,学习器在训练集上的误差称为“训练误差”或“经验误差”,在新样本上的误差称为“泛化误差”。3.过拟合和欠拟合当学习器把训练样本学习的“太好”了的时候,会导致泛化性下降,也就是面对新样本,效果不佳,这种现象原创 2020-12-05 12:11:16 · 1428 阅读 · 3 评论 -
周志华《机器学习》第一章读书笔记以及课后习题答案
读书笔记1.根据训练数据是否拥有标记信息,学习任务可大致分两类学习任务代表监督学习分类,回归无监督学习聚类2.学得模型适用于新样本的能力,称为“泛化”能力。3.假设空间和版本空间例题的假设空间由3部分组成①色泽,根蒂,敲声分别有3,3,3种取值②色泽,根蒂,敲声取什么值都合适,我们使用通配符“*”来表示,所以取值分别用1,1,1表示③还有一种极端情况,有可能“ 好瓜 ”这个概念根本就不成立,世界上压根就没有“好瓜”这种东西,我们用Ø表示这个假设所以假设空间原创 2020-11-30 20:15:59 · 1430 阅读 · 2 评论 -
粒子群算法(PSO)详解
1 粒子群PSO算法简介1.1 维基百科的解释粒子群算法(Particle Swarm Optimization,简称PSO),或称粒子群优化,是属于人工智能算法,公元1995年由肯尼迪(Kennedy)与埃伯哈特(Eberhart)(1995)两位学者所提出,这两位学者借由观察鸟类族群觅食的讯息传递所得到的一个启发,粒子群算法的理论基础是以单一粒子来做为鸟类族群之中的单一个体,于算法中赋予该...原创 2020-01-10 16:17:27 · 29749 阅读 · 7 评论