机器学习
文章平均质量分 93
hhsh49
这个作者很懒,什么都没留下…
展开
-
四大机器学习降维算法:PCA、LDA、LLE、Laplacian Eigenmaps
引言机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达,目前最多使用向量表达形式。 y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的)。f可能是显式的或隐式的、线性的或非线性的。目前大部分降维算法处理向量表达的数据,也有一些降维算法处转载 2016-05-05 15:43:19 · 1789 阅读 · 0 评论 -
从拉普拉斯矩阵说到谱聚类
目录(?)[+]转:http://blog.csdn.net/v_july_v/article/details/40738211 从拉普拉斯矩阵说到谱聚类0 引言 11月1日上午,机器学习班 第7次课,邹讲聚类(PPT),其中的谱聚类引起了自己的兴趣,邹从最基本的概念:单位向量、两个向量的正交、转载 2016-12-26 11:06:16 · 712 阅读 · 0 评论 -
拉普拉斯矩阵推导
矩阵形式的推导过程如图向量形式的推导过程详见论文:Laplacian Eigenmaps and Sp ectralT ec hniques for Em b edding and Clustering原创 2017-01-12 16:02:18 · 5900 阅读 · 3 评论 -
FCM(Fuzzy C-Means)模糊C聚类
转自:http://blog.csdn.net/zjsghww/article/details/50922168目录(?)[-]FCM初识FCM算法参数的选择1 聚类数目c的选择2 模糊系数m的选择1. FCM初识FCM的C跟K-Means的K是一样的,指的是聚类的数目。F—Fuzzy是模糊的意思,指的是”一个事件发生的程度“转载 2017-03-31 17:28:23 · 2077 阅读 · 0 评论 -
CNN笔记:通俗理解卷积神经网络
通俗理解卷积神经网络(cs231n与5月dl班课程笔记)目录(?)[+]转自:http://blog.csdn.net/v_july_v/article/details/518124591 前言 2012年我在北京组织过8期machine learning读书会,那时“机器学习”非常火,很多人转载 2017-05-02 21:11:25 · 900 阅读 · 0 评论 -
Deep learning简介
转自:http://blog.csdn.net/u010555688/article/details/24438059[1]Deep learning简介[2]Deep Learning训练过程[3]Deep Learning模型之:CNN卷积神经网络推导和实现[4]Deep Learning模型之:CNN的反向求导及练习[5]Dee转载 2017-05-03 14:45:18 · 372 阅读 · 0 评论 -
李宏毅机器学习笔记
转自:http://blog.csdn.net/soulmeetliang/article/details/73251790[机器学习入门] 李宏毅机器学习笔记-13 (Semi-supervised Learning ;半监督学习)PDFVIDEOIntroductionWhy semi-superv转载 2017-11-02 19:40:06 · 3634 阅读 · 0 评论 -
朴素贝叶斯 拉普拉斯平滑(Laplace Smoothing)
转自:https://blog.csdn.net/qq_25073545/article/details/78621019拉普拉斯平滑(Laplace Smoothing)又被称为加 1 平滑,是比较常用的平滑方法。平滑方法的存在时为了解决零概率问题。背景:为什么要做平滑处理? 零概率问题,就是在计算实例的概率时,如果某个量x,在观察样本库(训练集)中没有出现过,会导致整个实例的概率结果是0。在...转载 2018-06-14 10:21:47 · 17058 阅读 · 3 评论 -
周志华老师S4VM
转自:https://blog.csdn.net/u012875855/article/details/813870971、S3VM传统半监督支持向量机通过探索未标记数据来规范。调整决策边界,寻找最有的大间隔、低密度的超平面,比如S3VMs、TSVM等半监督SVM算法,如图所示,S3VM试图找到一个超平面,将有标记样本能够正确划分,且穿过特征空间中密度最低的区域;右图即是S3VM寻找的理想超...转载 2018-11-06 20:53:46 · 1775 阅读 · 1 评论 -
Adaboost算法原理分析和实例+代码(简明易懂)
Adaboost算法原理分析和实例+代码(简明易懂) 【尊重原创,转载请注明出处】 http://blog.csdn.net/guyuealian/article/details/70995333 本人最初了解AdaBoost算法着实是花了几天时间,才明白他的基本原理。也许是自己能力有限吧,很多资料也是看得懵懵懂懂。网上找了一下关于Adaboost算法原理分析,大都是你复制我,我摘抄...转载 2019-02-23 15:56:49 · 1837 阅读 · 0 评论 -
机器学习笔记十二:分类与回归树CART
Ⅲ.实现实现部分采用的数据集是机器学习实战中的数据集.代码则是按照自己的理解重新改写了一遍.读取数据模块:data.pyimport numpy as npdef loadData(filename): dataSet=np.loadtxt(fname=filename,dtype=np.float32) return dataSet1234用numpy内...转载 2019-03-03 22:05:02 · 273 阅读 · 0 评论 -
矩阵求导解最小二乘
转自:http://blog.csdn.net/acdreamers/article/details/44662633关于最小二乘问题的求解,之前已有梯度下降法,还有比较快速的牛顿迭代。今天来介绍一种方法,是基于矩阵求导来计算的,它的计算方式更加简洁高效,不需要大量迭代,只需解一个正规方程组。 在开始之前,首先来认识一个概念和一些用到的定理。矩阵的迹定义转载 2016-11-15 10:29:58 · 1830 阅读 · 0 评论 -
极限学习机的使用方法
极限学习机的理论转自:http://blog.csdn.net/jiyangsb/article/details/51354488在传统的神经网络训练中,我们通常的做法是要通过梯度下降算法来不断的调整隐层与输出层,输出层与隐层之间的权值矩阵,以及偏置b。但是ELM算法指出,其实隐层的权值矩阵W和偏置b其实是没有必要调整的,在学习算法开始时,任意随机给定W和b的值,利用其计算出H(隐层节转载 2016-10-14 15:19:25 · 5734 阅读 · 1 评论 -
Kernel PCA 原理和演示
转自:http://zhanxw.com/blog/2011/02/kernel-pca-原理和演示/主成份(Principal Component Analysis)分析是降维(Dimension Reduction)的重要手段。每一个主成分都是数据在某一个方向上的投影,在不同的方向上这些数据方差Variance的大小由其特征值(eigenvalue)决定。一般我们会选取最大的几个特征值转载 2016-10-22 19:29:06 · 426 阅读 · 0 评论 -
最大似然估计(Maximum likelihood estimation)
最大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。简单而言,假设我们要统计全国人口的身高,首先假设这个身高服从服从正态分布,但是该分布的均值与方差未知。我们没有人力与物力去统计全国每个人的身高,但是可以通过采样,获取部分人的身高,然后通过最大似然估计来获取上述假设中的正态分布的均值与方差。 最大似然估计中采样需满足一个很重要的假设,就是所有的转载 2016-05-06 10:08:09 · 570 阅读 · 0 评论 -
Karhunen-Loeve Transform (KLT) 原理及PCA应用
Karhunen-Loeve Transform(KLT)是一种数据变换与分析方式,常用于数据压缩和PCA降维。1. KLT是什么变换,KLT的目的是什么?KLT是对向量x做的一个正交变换y=Φx,目的是变换到y后去除数据相关性。PS:其中,Φ是x特征向量组成的矩阵,满足ΦTΦ=I,当x都是实数时,Φ是正交矩阵。转载 2016-05-23 15:27:15 · 487 阅读 · 0 评论 -
朴素贝叶斯分类(Naive Bayesian classification)
0、写在前面的话 我个人一直很喜欢算法一类的东西,在我看来算法是人类智慧的精华,其中蕴含着无与伦比的美感。而每次将学过的算法应用到实际中,并解决了实际问题后,那种快感更是我在其它地方体会不到的。 一直想写关于算法的博文,也曾写过零散的两篇,但也许是相比于工程性文章来说太小众,并没有引起大家的兴趣。最近面临毕业找工作,为了能给自己增加筹码,决定再次复习算法方面的知转载 2016-06-17 09:06:56 · 431 阅读 · 1 评论 -
THE MATLAB CODE OF CANONICAL CORRELATION ANALYSIS (CCA)
THE MATLAB CODE OF CANONICAL CORRELATION ANALYSIS (CCA)转自:http://www.cppblog.com/guijie/archive/2015/06/02/210807.html%Reference: the matlab code of "CVPR 2011 Iterative Quantization". I转载 2016-10-08 21:46:59 · 1246 阅读 · 0 评论 -
极限学习机(ELM)
转自:http://blog.csdn.net/google19890102/article/details/18222103一、极限学习机的概念 极限学习机(Extreme Learning Machine) ELM,是由黄广斌提出来的求解单隐层神经网络的算法。 ELM最大的特点是对于传统的神经网络,尤其是单隐层前馈神经网络(SLFNs),在保证学转载 2016-10-10 09:37:31 · 2036 阅读 · 0 评论 -
极限学习机代码注释翻译
转自:http://blog.csdn.net/cutelily2014/article/details/51635713?locationNum=5ELM(extreme learning machine)极限学习机算法在2004年由南洋理工的Guang-bin Huang提出,经过进来的发展已经呈现出很好的性能,现在我把算法原作者的部分代码贴出来,附上自己的一点解析。关于算法的推导和应转载 2016-10-10 09:49:53 · 3418 阅读 · 3 评论 -
牛顿法
平时经常看到牛顿法怎样怎样,一直不得要领,今天下午查了一下维基百科,写写我的认识,很多地方是直观理解,并没有严谨的证明。在我看来,牛顿法至少有两个应用方向,1、求方程的根,2、最优化。牛顿法涉及到方程求导,下面的讨论均是在连续可微的前提下讨论。 1、求解方程。并不是所有的方程都有求根公式,或者求根公式很复杂,导致求解困难。利用牛顿法,可以迭代求解。原理是利用泰勒公式转载 2016-09-21 10:39:36 · 454 阅读 · 0 评论 -
解L1范数优化的快速算法:分拆方法
记得在前阵一个QQ技术交流群一位朋友提过这个方法。最近看到一个相关资料,了解点皮毛。针对以下形式的L1范数优化问题:如果稀疏字典不可逆,这在压缩感知中常见的(样本个数小于信号维度)。在传统的稀疏表示中,如果稀疏表示字典很多也是不可逆的(过完备字典),即:首先代换求解变量:然后引入Bregman项,得到splitting Bre转载 2016-10-10 20:53:58 · 2366 阅读 · 0 评论 -
核PCA与PCA的精髓和核函数的映射实质
转自:http://www.cnblogs.com/engineerLF/p/5393087.html1.PCA简介 遭遇维度危机的时候,进行特征选择有两种方法,即特征选择和特征抽取。特征选择即经过某种法则直接扔掉某些特征,特征抽取即利用映射的方法,将高维度的样本映射至低维度。PCA(或者K-L变换),即Principal Component Analysis是特征抽取的主要转载 2016-10-21 17:57:25 · 1541 阅读 · 0 评论 -
主成分分析(PCA)原理及推导
转自:http://blog.csdn.net/zhongkejingwang/article/details/42264479 什么是PCA? 在数据挖掘或者图像处理等领域经常会用到主成分分析,这样做的好处是使要分析的数据的维度降低了,但是数据的主要信息还能保留下来,并且,这些变换后的维两两不相关!至于为什么?那就接着往下看。在本文中,将会很详细的解答这些问题:PCA、SVD、特征值、转载 2016-10-11 16:34:01 · 2439 阅读 · 0 评论 -
jupyter notebook 上传文件夹问题
jupyter notebook本地直接解压缩后,只能上传单个或多个文件,多个文件夹无法上传。直接在本地的文件夹下:C:\Users\Administrator(自己的电脑路径),直接拷贝文件夹即可。...原创 2019-09-06 21:58:41 · 7198 阅读 · 0 评论