- 博客(20)
- 资源 (9)
- 问答 (1)
- 收藏
- 关注
原创 GRE难句典型结构2
1.省略的几种情况1.1 重复的成分The correlation of carbon dioxide with tempreture, of course, does not established whether changes in atmospheric composition caused the warming and cooling trends or were case
2017-06-26 20:34:04 1278
原创 GRE难句典型结构1
1.长从句1.1 主语从句That each large firm will actwith consideration of its own needs and thus avoid selling its products for more than its competitors' charge is commonly recognized byadvocates of
2017-06-25 22:51:08 1850
原创 子空间模式识别
1.Jason Gu说说我理解的子空间学习。子空间学习大意是指通过投影,实现高维特征向低维空间的映射,是一种经典的降维思想。例如人脸图像,如果每幅图像提取出来的特征是1000维,则每幅图像对应着1000维空间中的一个点。维数太高给计算带来很多问题,且很多人认为真实有效的人脸图像特征并没有那么高维,可能只有100维,即每幅人脸只是100维空间中的一个点。将特征从1000维压缩到100维,
2017-06-21 11:30:11 9688
原创 新兴机器学习算法:迁移学习
1.前言在面对某一领域的具体问题时,通常可能无法得到构建模型所需规模的数据。然而在一个模型训练任务中针对某种类型数据获得的关系也可以轻松地应用于同一领域的不同问题。这种技术也叫做迁移学习(Transfer Learning)。Qiang Yang、Sinno Jialin Pan,“A Survey on Transfer Learning”,IEEE Transactio
2017-06-18 13:28:24 2542
原创 新兴机器学习算法:从无监督降维到监督降维
1.前言机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达,目前最多使用向量表达形式。 y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的)。f可能是显式的或隐式的、线性的或非线性的。目前大部分降维算法处理向量表达的数据,也有一些降维算法处理高
2017-06-18 12:45:06 10284
原创 新型机器学习算法:正则化理解
1.过拟合问题上面是预测房价的例子,先对该数据做线性回归,也就是左边第一张图。如果这么做,可以获得拟合直线,但是,实际上这并不是一个很好的模型。我们看看这些数据,很明显,随着房子面积增大,住房价格的变化趋于稳定或者说越往右越平缓。因此线性回归并没有很好拟合训练数据。我们把此类情况称为欠拟合,或者叫作叫做高偏差。这两种说法大致相似,都表示没有很好地拟合训练数据。高偏差这个词是 m
2017-06-15 16:15:57 766
原创 新兴机器学习算法:在线学习
1.前言前面介绍的是对于所有训练样本{(xi,yi)}i=1->n同时进行学习的回归、分类算法。一般来说,在训练样本不同时给定的情况下,比起将所有的训练样本集中起来同时进行学习,把训练样本逐个输入到学习算法中,并在新的数据进来的时候马上对现在的学习结果进行更新,这样的逐次学习算法更加有效。本篇博客介绍可以进行逐次学习的在线学习算法,当训练样本总数n非常大的时候,在线学习算法对于有限内存的利
2017-06-15 14:43:41 13511
原创 无监督分类:聚类分析(K均值)
1.K均值聚类K均值聚类是最基础的一种聚类方法。K均值聚类,就是把看起来最集中、最不分散的簇标签分配到输入训练样本{xi}中。具体而言就是通过下式计算簇y的分散状况:在这里,∑i,yi=y表示的是满足yi=y的y的和。μy是指簇y的中心。ny为属于簇y的样本总数。利用上述定义,对于所有的簇y=1,2,3,..,c的下式和最小时,决定其所属的簇标签。然而,
2017-06-14 22:04:23 10963
原创 无监督学习:无监督降维
1.前言如果输入样本x的维数增加的话,不论是什么机器学习算法,其学习时间都会增加,学习过程也会变得更加困难。例如,假设在一维空间的{0,1}区间里有5个训练样本。以相同的密度在d次维空间里配置相同种类的训练样本的话,最终的样本数目就达到了5^d个。如下图所示:高维空间的一个例子。当维数d很大的时候,收集并计算多达5^d个的训练样本是相当困难的。因此,在高维空间中,训练样本也
2017-06-14 16:33:28 8311
原创 无监督学习:异常检测与剔除(局部异常因子法 & SVM异常检测器)
1.前言前面介绍的都是有监督学习的回归和分类算法。有监督学习是指对输入和输出都有成对出现的训练样本{(xi,yi)}。在这里,主要介绍在没有输出信息时,只利用输入样本{xi}的信息进行无监督学习的方法。本篇博客重点讨论删除样本{xi}中包含异常值的方法。异常值检测,是指找出给定的输入样本{xi}中包含的异常值的问题。虽然再有监督回归和有监督分类里面我们也研究了对异常值具有较高鲁棒性的学
2017-06-14 10:17:20 7378
原创 有监督分类:概率分类法(Logistic)
1.前言前面我介绍的都是确定模式所属类别的模式识别算法。对于模式基于概率进行分类的手法称为概率分类法。这是这一篇博客重点讨论的内容。基于概率的模式识别,是指与模式x所对应的类别y的后验概率p(y|x)进行学习。其所属类别为后延概率达到最大值时所对应的类别。类别的后验概率p(y=y'|x).可以理解为模式x属于类别y的可信度。通过这样的方法,在可信度非常低的时候就不用强行进行
2017-06-13 10:41:37 5458 2
原创 有监督分类:集成分类(Bagging & Boosting & RandomForest)
1.前言集成学习(Ensemble),是指把性能较低的多种弱学习器,通过适当组合形成高性能的强学习器的方法。“三个臭皮匠顶个诸葛亮”这句谚语用来形容集成分类器最合适不过了。这几年,关于集成分类的研究一直是机器学习领域的一个热点问题。在这里,只分析了两个我比较熟悉的集成分类方法。对多个弱学习器独立进行学习的Bagging学习法对多个弱学习器依次进行学习的Boosting学习法
2017-06-12 19:24:59 6257 2
原创 有监督分类:支持向量机分类
1.前言上一篇主要研究了《最小二乘用于分类》也实现了模式识别。然而,虽然与错误分类率对应的0/1损失的间隔函数是单调非增的,但是L2损失并不是单调非增的,所以使用最小二乘学习法进行模式识别还是有些不自然。这里,再次综述一下支持向量机分类器,关于SVM的话题已经写了近10篇文章了。本文更偏重于介绍支持向量机分类器中所使用的损失概念,并且讨论支持向量机分类器向鲁棒学习进行拓展的方法。2
2017-06-12 16:22:28 7010
原创 有监督分类:基于最小二乘法的分类
1.前言接下来主要介绍有关模式识别的算法。不可否认的是,在全民AI时代,PR的重要性越来越凸显了。模式识别是指:对于输入的模式x∈R,将其分类到它属于的类别y∈[1,...,c]的方法。c表示类别的数目。2.最小二乘分类首先考虑2类别分类问题y∈{+1,-1}.这种情况下,分类器的学习问题可以近似地定义为取值为+1、-1的二值函数问题,如下图所示:函
2017-06-10 18:32:21 8713
原创 拉格朗日乘数法
1.前言拉格朗日乘数法(Lagrange Multiplier Method)之前听数学老师授课的时候就是一知半解,现在越发感觉拉格朗日乘数法应用的广泛性,所以特意抽时间学习了麻省理工学院的在线数学课程。新学到的知识一定要立刻记录下来,希望对各位有些许帮助。2.拉格朗日乘数法的基本思想作为一种优化算法,拉格朗日乘子法主要用于解决约束优化问题,它的基本思想就是通过引入拉格朗日
2017-06-10 16:22:25 4102 1
原创 有监督回归:鲁棒学习
1.前言虽然最小二乘学习法是非常实用的机器学习方法,但是当训练样本中包含异常值的时候,学习效果非常易于受到影响。下图展示的是对于线性模型:以10个训练样本进行最小二乘学习的例子。测试结果如下图所示:最小二乘学习法具有容易受到异常值影响的弱点(a)图显示的是没有一场值得情况下能够得到合理的学习结果。但是在(b)图中,如果存在一个异常值,那么最小二乘学习的最终结
2017-06-10 14:57:23 10059 2
原创 有监督回归:稀疏学习
1.前言带有约束条件的最小二乘学习法和交叉验证的组合,在实际应用中是非常有效的回归方法。然而,当参数特别多的时候,求解各参数以及学习得到的函数的输出值的过程,都需要耗费大量的时间。这篇博客主要介绍可以把大部分都设置为0的稀疏学习算法,因为大部分参数都设置为0,所以就可以快速地求解各参数以及学习得到的函数。2.L1约束的最小二乘学习法在L2约束的最小二乘学习法
2017-06-09 22:03:55 1609
原创 有监督回归:约束条件下的最小二乘法
1.前言前面介绍的最小二乘学习法,是众多机器学习算法中极为重要的一种基础算法。但是,单纯的最小二乘法对于包含噪声的学习过程经常有过拟合的弱点。如下图所示:这往往是由于学习模型对于训练样本而言过于复杂。因此,本篇博客将介绍能够控制模型复杂程度的、带有约束条件的最小二乘学习法。2.部分空间约束的最小二乘学习法在有参数线性模型:的一般最
2017-06-08 22:43:27 32492 2
原创 有监督回归:最小二乘学习法
1.前言接下来几篇博客将总结回归问题中的各种有监督学习算法。本片博客介绍回归问题中的最基本算法——最小二乘学习法;下一篇介绍为了避免过拟合而设置约束条件的最小二乘学习法。之后,我也会介绍难度高一点的稀疏学习法和鲁棒学习法。在以下几篇文章中,我们将对以d次方的实数向量X作为输入、以实数值y作为输出。可以描述为y=f(X)。这里,真实的函数关系f是未知的,通过学习过程中作为训练集进行学
2017-06-08 19:09:22 3362 5
原创 学习模型
1.前言本栏目所涉及的各种机器学习算法大多着重于如何使特定函数与数据集相似。所以在最开始的时候,我先对各种近似模型进行介绍。2.线性模型最简单的线性模型是Θ*x。Θ表示模型的参数,标量,通过对这个参数进行学习,完成函数的近似计算。这个模型对于参数Θ而言是线性的,过于简单,实际中没有太大应用价值。实际应用中,经常会对上面的线性模型进行相应的拓展,使其变成基于参数的线性模型
2017-06-07 16:15:47 1253
Python+OpenCV实现Selective Search算法
2018-10-29
英伟达深度神经网络加速库 与 matconvnet配套使用 (v5.1)
2018-07-11
21个项目玩转深度学习
2018-06-15
TA创建的收藏夹 TA关注的收藏夹
TA关注的人