自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

沈春旭的博客

优秀是一种习惯

  • 博客(20)
  • 资源 (9)
  • 问答 (1)
  • 收藏
  • 关注

原创 GRE难句典型结构2

1.省略的几种情况1.1 重复的成分The correlation of carbon dioxide with tempreture, of course, does not established whether changes in atmospheric composition caused the warming and cooling trends or were case

2017-06-26 20:34:04 1278

原创 GRE难句典型结构1

1.长从句1.1 主语从句That each large firm will actwith consideration of its own needs and thus avoid selling its products for more than its competitors' charge is commonly recognized byadvocates of

2017-06-25 22:51:08 1850

原创 子空间模式识别

1.Jason Gu说说我理解的子空间学习。子空间学习大意是指通过投影,实现高维特征向低维空间的映射,是一种经典的降维思想。例如人脸图像,如果每幅图像提取出来的特征是1000维,则每幅图像对应着1000维空间中的一个点。维数太高给计算带来很多问题,且很多人认为真实有效的人脸图像特征并没有那么高维,可能只有100维,即每幅人脸只是100维空间中的一个点。将特征从1000维压缩到100维,

2017-06-21 11:30:11 9688

原创 新兴机器学习算法:迁移学习

1.前言在面对某一领域的具体问题时,通常可能无法得到构建模型所需规模的数据。然而在一个模型训练任务中针对某种类型数据获得的关系也可以轻松地应用于同一领域的不同问题。这种技术也叫做迁移学习(Transfer Learning)。Qiang Yang、Sinno Jialin Pan,“A Survey on Transfer Learning”,IEEE Transactio

2017-06-18 13:28:24 2542

原创 新兴机器学习算法:从无监督降维到监督降维

1.前言机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达,目前最多使用向量表达形式。 y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的)。f可能是显式的或隐式的、线性的或非线性的。目前大部分降维算法处理向量表达的数据,也有一些降维算法处理高

2017-06-18 12:45:06 10284

原创 新型机器学习算法:正则化理解

1.过拟合问题上面是预测房价的例子,先对该数据做线性回归,也就是左边第一张图。如果这么做,可以获得拟合直线,但是,实际上这并不是一个很好的模型。我们看看这些数据,很明显,随着房子面积增大,住房价格的变化趋于稳定或者说越往右越平缓。因此线性回归并没有很好拟合训练数据。我们把此类情况称为欠拟合,或者叫作叫做高偏差。这两种说法大致相似,都表示没有很好地拟合训练数据。高偏差这个词是 m

2017-06-15 16:15:57 766

原创 新兴机器学习算法:在线学习

1.前言前面介绍的是对于所有训练样本{(xi,yi)}i=1->n同时进行学习的回归、分类算法。一般来说,在训练样本不同时给定的情况下,比起将所有的训练样本集中起来同时进行学习,把训练样本逐个输入到学习算法中,并在新的数据进来的时候马上对现在的学习结果进行更新,这样的逐次学习算法更加有效。本篇博客介绍可以进行逐次学习的在线学习算法,当训练样本总数n非常大的时候,在线学习算法对于有限内存的利

2017-06-15 14:43:41 13511

原创 无监督分类:聚类分析(K均值)

1.K均值聚类K均值聚类是最基础的一种聚类方法。K均值聚类,就是把看起来最集中、最不分散的簇标签分配到输入训练样本{xi}中。具体而言就是通过下式计算簇y的分散状况:在这里,∑i,yi=y表示的是满足yi=y的y的和。μy是指簇y的中心。ny为属于簇y的样本总数。利用上述定义,对于所有的簇y=1,2,3,..,c的下式和最小时,决定其所属的簇标签。然而,

2017-06-14 22:04:23 10963

原创 无监督学习:无监督降维

1.前言如果输入样本x的维数增加的话,不论是什么机器学习算法,其学习时间都会增加,学习过程也会变得更加困难。例如,假设在一维空间的{0,1}区间里有5个训练样本。以相同的密度在d次维空间里配置相同种类的训练样本的话,最终的样本数目就达到了5^d个。如下图所示:高维空间的一个例子。当维数d很大的时候,收集并计算多达5^d个的训练样本是相当困难的。因此,在高维空间中,训练样本也

2017-06-14 16:33:28 8311

原创 无监督学习:异常检测与剔除(局部异常因子法 & SVM异常检测器)

1.前言前面介绍的都是有监督学习的回归和分类算法。有监督学习是指对输入和输出都有成对出现的训练样本{(xi,yi)}。在这里,主要介绍在没有输出信息时,只利用输入样本{xi}的信息进行无监督学习的方法。本篇博客重点讨论删除样本{xi}中包含异常值的方法。异常值检测,是指找出给定的输入样本{xi}中包含的异常值的问题。虽然再有监督回归和有监督分类里面我们也研究了对异常值具有较高鲁棒性的学

2017-06-14 10:17:20 7378

原创 有监督分类:概率分类法(Logistic)

1.前言前面我介绍的都是确定模式所属类别的模式识别算法。对于模式基于概率进行分类的手法称为概率分类法。这是这一篇博客重点讨论的内容。基于概率的模式识别,是指与模式x所对应的类别y的后验概率p(y|x)进行学习。其所属类别为后延概率达到最大值时所对应的类别。类别的后验概率p(y=y'|x).可以理解为模式x属于类别y的可信度。通过这样的方法,在可信度非常低的时候就不用强行进行

2017-06-13 10:41:37 5458 2

原创 有监督分类:集成分类(Bagging & Boosting & RandomForest)

1.前言集成学习(Ensemble),是指把性能较低的多种弱学习器,通过适当组合形成高性能的强学习器的方法。“三个臭皮匠顶个诸葛亮”这句谚语用来形容集成分类器最合适不过了。这几年,关于集成分类的研究一直是机器学习领域的一个热点问题。在这里,只分析了两个我比较熟悉的集成分类方法。对多个弱学习器独立进行学习的Bagging学习法对多个弱学习器依次进行学习的Boosting学习法

2017-06-12 19:24:59 6257 2

原创 有监督分类:支持向量机分类

1.前言上一篇主要研究了《最小二乘用于分类》也实现了模式识别。然而,虽然与错误分类率对应的0/1损失的间隔函数是单调非增的,但是L2损失并不是单调非增的,所以使用最小二乘学习法进行模式识别还是有些不自然。这里,再次综述一下支持向量机分类器,关于SVM的话题已经写了近10篇文章了。本文更偏重于介绍支持向量机分类器中所使用的损失概念,并且讨论支持向量机分类器向鲁棒学习进行拓展的方法。2

2017-06-12 16:22:28 7010

原创 有监督分类:基于最小二乘法的分类

1.前言接下来主要介绍有关模式识别的算法。不可否认的是,在全民AI时代,PR的重要性越来越凸显了。模式识别是指:对于输入的模式x∈R,将其分类到它属于的类别y∈[1,...,c]的方法。c表示类别的数目。2.最小二乘分类首先考虑2类别分类问题y∈{+1,-1}.这种情况下,分类器的学习问题可以近似地定义为取值为+1、-1的二值函数问题,如下图所示:函

2017-06-10 18:32:21 8713

原创 拉格朗日乘数法

1.前言拉格朗日乘数法(Lagrange Multiplier Method)之前听数学老师授课的时候就是一知半解,现在越发感觉拉格朗日乘数法应用的广泛性,所以特意抽时间学习了麻省理工学院的在线数学课程。新学到的知识一定要立刻记录下来,希望对各位有些许帮助。2.拉格朗日乘数法的基本思想作为一种优化算法,拉格朗日乘子法主要用于解决约束优化问题,它的基本思想就是通过引入拉格朗日

2017-06-10 16:22:25 4102 1

原创 有监督回归:鲁棒学习

1.前言虽然最小二乘学习法是非常实用的机器学习方法,但是当训练样本中包含异常值的时候,学习效果非常易于受到影响。下图展示的是对于线性模型:以10个训练样本进行最小二乘学习的例子。测试结果如下图所示:最小二乘学习法具有容易受到异常值影响的弱点(a)图显示的是没有一场值得情况下能够得到合理的学习结果。但是在(b)图中,如果存在一个异常值,那么最小二乘学习的最终结

2017-06-10 14:57:23 10059 2

原创 有监督回归:稀疏学习

1.前言带有约束条件的最小二乘学习法和交叉验证的组合,在实际应用中是非常有效的回归方法。然而,当参数特别多的时候,求解各参数以及学习得到的函数的输出值的过程,都需要耗费大量的时间。这篇博客主要介绍可以把大部分都设置为0的稀疏学习算法,因为大部分参数都设置为0,所以就可以快速地求解各参数以及学习得到的函数。2.L1约束的最小二乘学习法在L2约束的最小二乘学习法

2017-06-09 22:03:55 1609

原创 有监督回归:约束条件下的最小二乘法

1.前言前面介绍的最小二乘学习法,是众多机器学习算法中极为重要的一种基础算法。但是,单纯的最小二乘法对于包含噪声的学习过程经常有过拟合的弱点。如下图所示:这往往是由于学习模型对于训练样本而言过于复杂。因此,本篇博客将介绍能够控制模型复杂程度的、带有约束条件的最小二乘学习法。2.部分空间约束的最小二乘学习法在有参数线性模型:的一般最

2017-06-08 22:43:27 32492 2

原创 有监督回归:最小二乘学习法

1.前言接下来几篇博客将总结回归问题中的各种有监督学习算法。本片博客介绍回归问题中的最基本算法——最小二乘学习法;下一篇介绍为了避免过拟合而设置约束条件的最小二乘学习法。之后,我也会介绍难度高一点的稀疏学习法和鲁棒学习法。在以下几篇文章中,我们将对以d次方的实数向量X作为输入、以实数值y作为输出。可以描述为y=f(X)。这里,真实的函数关系f是未知的,通过学习过程中作为训练集进行学

2017-06-08 19:09:22 3362 5

原创 学习模型

1.前言本栏目所涉及的各种机器学习算法大多着重于如何使特定函数与数据集相似。所以在最开始的时候,我先对各种近似模型进行介绍。2.线性模型最简单的线性模型是Θ*x。Θ表示模型的参数,标量,通过对这个参数进行学习,完成函数的近似计算。这个模型对于参数Θ而言是线性的,过于简单,实际中没有太大应用价值。实际应用中,经常会对上面的线性模型进行相应的拓展,使其变成基于参数的线性模型

2017-06-07 16:15:47 1253

用于特征图/卷积核/响应图可视化的网络

这个是为博客‘非黑盒矣-卷积神经网络的可视化’匹配的已经训练好的网络。 通过该网络和博文中阐述的代码,从而复现实验。

2018-12-18

Python+OpenCV实现Selective Search算法

The code is a Python tutorial for Selective Search using OpenCV 3.3.

2018-10-29

softmax regression测试代码

代码实现了softmax regression。 包含训练代码,测试代码和训练数据。

2018-10-15

logistic逻辑回归配套资源

logistic逻辑回归的配套资源。 里面包括训练代码、测试代码。其中也包括了训练集、测试集。

2018-10-14

英伟达深度神经网络加速库 与 matconvnet配套使用 (v5.1)

CuDNN是专门针对Deep Learning框架设计的一套GPU计算加速方案,目前支持的DL库包括Caffe,ConvNet, Torch7等。

2018-07-11

21个项目玩转深度学习

《21 个项目玩转深度学习——基于TensorFlow 的实践详解》以实践为导向,深入介绍了深度学习技术和TensorFlow 框架编程内容。 通过本书,读者可以训练自己的图像识别模型、进行目标检测和人脸识别、完成一个风格迁移应用,还可以使用神经网络生成图像和文本,进行时间序列预测、搭建机器翻译引擎,训练机器玩游戏。全书共包含21 个项目,分为深度卷积网络、RNN网络、深度强化学习三部分。读者可以在自己动手实践的过程中找到学习的乐趣,了解算法和编程框架的细节,让学习深度学习算法和TensorFlow 的过程变得轻松和高效。本书代码基于TensorFlow 1.4 及以上版本,并介绍了TensorFlow 中的一些新特性。 本书适合有一定机器学习基础的学生、研究者或从业者阅读,尤其是希望深入研究TensorFlow 和深度学习算法的数据工程师,也适合对人工智能、深度学习感兴趣的在校学生,以及希望进入大数据应用的研究者。

2018-06-15

数学之美完整版

很好的一本书 是清华师兄的大作,将通信领域和语音处理领域应用的数学深入简出的道来

2016-11-10

串口通讯代码

利用C#开发出的串口通讯代码,可以实现对下位机的控制,软件界面简介

2014-06-09

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除