- 博客(115)
- 资源 (9)
- 收藏
- 关注
原创 深度学习方法:受限玻尔兹曼机RBM(一)基本概念
最近在复习经典机器学习算法的同时,也仔细看了一些深度学习的典型算法。深度学习是机器学习的“新浪潮”,它的成功主要得益于深度“神经网络模型”的优异效果。这个小系列打算深入浅出地记录一下深度学习中常用的一些算法。第一篇先写一下“受限玻尔兹曼机“RBM。
2015-04-17 07:53:18 30519 1
原创 机器学习方法:回归(三):最小角回归Least Angle Regression(LARS),forward stagewise selection
前面两篇回归(一)(二)复习了线性回归,以及L1与L2正则——lasso和ridge regression。特别描述了lasso的稀疏性是如何产生的。在本篇中介绍一下和lasso可以产生差不多效果的两种方法:stagewise和LARS
2015-04-06 13:40:00 42770 14
原创 机器学习方法(四):决策树Decision Tree原理与实现技巧
前面三篇写了线性回归,lasso,和LARS的一些内容,这篇写一下决策树这个经典的分类算法,后面再提一提随机森林。关于决策树的内容主要来自于网络上几个技术博客,本文中借用的地方我都会写清楚出处,写这篇[整理文章]的目的是对决策树的
2015-04-06 13:33:52 73181 8
原创 机器学习方法:回归(二):稀疏与正则约束ridge regression,Lasso
本篇内容讲述回归问题中最常用的ridge regression与Lasso,同时深入浅出地探讨稀疏约束,正则,分析了Lasso稀疏的原因。
2015-03-26 22:02:58 47228 12
原创 机器学习方法:回归(一):线性回归Linear regression
欢迎转载,转载请注明:本文出自Bin的专栏blog.csdn.net/xbinworld。开一个机器学习方法科普系列:做基础回顾之用,学而时习之;也拿出来与大家分享。数学水平有限,只求易懂,学习与工作够用。周期会比较长,因为我还想写一些其他的,呵呵。 content: linear regression, Ridge, Lasso Logistic Regression, Softmax ...
2015-03-19 22:18:47 85129 3
原创 Science14年的聚类论文——Clustering by fast search and find of density peaks
这是一个比较新的聚类方法(文章中没看见作者对其取名,在这里我姑且称该方法为local density clustering,LDC),在聚类这个古老的主题上似乎最近一些年的突破不大,这篇文章算是很好的了,方法让人很有启发(醍醐灌顶),并且是发表在Science上,受到的关注自然非常大。本文的核心亮点:1是用比较新颖的方法来确定聚类中心,2是采用距离的local density来进行聚类的划分。
2015-02-22 21:18:08 5787 3
转载 欢迎使用CSDN-markdown编辑器
欢迎使用Markdown编辑器写博客本Markdown编辑器使用StackEdit修改而来,用它写博客,将会带来全新的体验哦:
2015-02-07 22:27:52 792
转载 从机器学习谈起
在本篇文章中,我将对机器学习做个概要的介绍。本文的目的是能让即便完全不了解机器学习的人也能了解机器学习,并且上手相关的实践。这篇文档也算是EasyPR开发的番外篇,从这里开始,必须对机器学习了解才能进一步介绍EasyPR的内核。当然,本文也面对一般读者,不会对阅读有相关的前提要求。 在进入正题前,我想读者心中可能会有一个疑惑:机器学习有什么重要性,以至于要阅读完这篇非常长的文章呢?
2015-02-07 22:23:40 1893 1
原创 三十分钟理解:稀疏矩阵存储格式总结+存储效率对比:COO,CSR,DIA,ELL,HYB
稀疏矩阵是指矩阵中的元素大部分是0的矩阵,事实上,实际问题中大规模矩阵基本上都是稀疏矩阵,很多稀疏度在90%甚至99%以上。因此我们需要有高效的稀疏矩阵存储格式。本文总结几种典型的格式:COO,CSR,DIA,ELL,HYB。
2015-02-07 22:22:49 5660 1
原创 机器学习方法(八):随机采样方法整理(MCMC、Gibbs Sampling等)
转载请注明出处:Bin的专栏,http://blog.csdn.net/xbinworld本文是对参考资料中多篇关于sampling的内容进行总结+搬运,方便以后自己翻阅。其实参考资料中的资料写的比我好,大家可以看一下!好东西多分享!PRML的第11章也是sampling,有时间后面写到PRML的笔记中去:)背景随机模拟也可以叫做蒙特卡罗模拟(Monte Carlo Sim
2015-02-07 22:20:29 29438 7
转载 机器学习距离公式总结
作者:daniel-D 出处:http://www.cnblogs.com/daniel-D/在机器学习和数据挖掘中,我们经常需要知道个体间差异的大小,进而评价个体的相似性和类别。最常见的是数据分析中的相关分析,数据挖掘中的分类和聚类算法,如 K 最近邻(KNN)和 K 均值(K-Means)等等。根据数据特性的不同,可以采用不同的度量方法。一般而言,定义一个距离函数 d(x,y), 需要满足
2015-02-07 22:18:29 9160
原创 今天开始学Pattern Recognition and Machine Learning (PRML),章节5.2-5.3,Neural Networks神经网络训练(BP算法)
这一篇是整个第五章的精华了,会重点介绍一下Neural Networks的训练方法——反向传播算法(backpropagation,BP),这个算法提出到现在近30年时间都没什么变化,可谓极其经典。也是deep learning的基石之一。还是老样子,下文基本是阅读笔记(句子翻译+自己理解),把书里的内容梳理一遍,也不为什么目的,记下来以后自己可以翻阅用。
2015-02-07 22:04:51 4530
原创 今天开始学模式识别与机器学习(PRML),章节5.1,Neural Networks神经网络-前向网络。
《模式识别与机器学习》PRML第5章介绍了神经网络neural network,是最近非常火的deep learning的基础之一。
2015-01-27 23:13:08 3286
转载 Deep Learning关于Vision的Reading List
主要是顺着Bengio的PAMI review的文章找出来的。包括几本综述文章,将近100篇论文,各位山头们的Presentation。全部都可以在google上找到。BTW:由于我对视觉尤其是检测识别比较感兴趣,所以关于DL的应用主要都是跟Vision相关的。在其他方面比如语音或者NLP,很少或者几乎没有。个人非常看好CNN和Sparse Autoencoder,这个list也反映了我的偏好,仅供参考。
2015-01-19 23:13:32 1945
转载 谷歌工程师利用和语言翻译类似的技术开发出了一个用于翻译图片主题的机器学习算法
将一种语言自动翻译成另一种语言一直以来都是难以攻克的问题。但最近几年,谷歌通过开发机器翻译算法改变了传统的翻译过程,通过谷歌翻译从本质上改变了跨文化翻译交流。
2015-01-19 22:35:52 1570
转载 CSDN博客用Windows Live Writer方法,终于可以离线编辑了!
以下是安装WLW 和相关设置:1、 下载安装WLW (步骤略,可自行下载,官方下载地址:http://www.microsoft.com/zh-cn/download/details.aspx?id=8621),添加日志账户,如图所示:2、下一步,您所使用的日志类型,选择MetaweblogAPI 3、 日志的远程发布网址,填写ht
2015-01-19 22:30:42 1395
转载 梯度下降取负梯度的简单证明,挺有意思的mark一下
本文转载自:http://blog.csdn.net/itplus/article/details/9337515
2015-01-19 22:28:38 3765
转载 不用加减乘除实现加法运算
int add(int a,int b){ char * c; c = (char *) a; return (int)&c[b]; }根据地址来让编译器自己帮你去算,首先把a强制转换为地址,然后找以c为首地址,偏移量为b的地址,就是a+b的值。 例如a=5,b=10c=(char*) a,此时c的地址为0x00000005
2015-01-19 22:23:28 1201
转载 Vim常见配置与命令
Vim是一个很和谐,很实用的文本编辑器,传说中的三大编辑器之一。本来配置的好好的,机器重装之后,什么都没了,也忘了备份,于是这儿再配置下。1. 基本安装安装Vim,Windows系统中的主目录(类似于Linux的Home)中建立vimfiles文件夹、_vimrc文件和_gvimrc文件,_gvimrc是Vim的GUI配置文件,在_vimrc之后执行,由于一直使用的是gVim,因此
2013-07-09 19:03:31 3207
原创 今天开始学Pattern Recognition and Machine Learning (PRML),章节1.6,Information Theory信息论简介
原创书写,转载请注明此文出自:http://blog.csdn.net/xbinworld,Bin的专栏今天开始学Pattern Recognition and Machine Learning (PRML),章节1.6,Information Theory信息论简介前面有朋友说写的东西太理论了,我想说我并不是在和很多其他博客一样做topic的入门介绍,配合很多示意图之
2013-05-24 12:27:29 5381
原创 今天开始学模式识别与机器学习Pattern Recognition and Machine Learning (PRML),章节1.2,Probability Theory (下)
原创书写,转载请注明此文出自:http://blog.csdn.net/xbinworld,Bin的专栏今天开始学Pattern Recognition and Machine Learning (PRML),章节1.2,Probability Theory (下)今天把1.2写完,这一节讲了很多重要的基础内容。1.2.3 贝叶斯概率这一节的上半
2013-05-09 20:37:09 4466 1
原创 论文阅读笔记之ICML2012::The Landmark Selection Method for Multiple Output Prediction 基于代表性特征选取的多维度回归方法
论文目标:做high dimensional regression的问题,即 一般做回归的时候y的维度会比x低,甚至是一维的,比如一般用回归来做分类、预测。但是y的维度如果比较高,而x可以是高维也可以是低维,回归问题可能需要有不一样的角度去思考。主要idea:假设y中的feature是有冗余的,可以用一部分feature来拟合出整个y,我们需要找到那一些“好
2013-04-26 18:46:07 1834
转载 距离计算方法总结
在做很多研究问题时常常需要估算不同样本之间的相似性度量(Similarity Measurement),这时通常采用的方法就是计算样本间的“距离”(Distance)。采用什么样的方法计算距离是很讲究,甚至关系到分类的正确与否。 本文的目的就是对常用的相似性度量作一个总结。本文目录:1. 欧氏距离2. 曼哈顿距离3. 切比雪夫距离4. 闵可夫斯基距离5. 标准化欧氏距离6. 马氏距离7. 夹角余
2013-04-26 18:40:55 10664
原创 今天开始学模式识别与机器学习Pattern Recognition and Machine Learning (PRML)书,章节1.2,Probability Theory (上)
原创书写,转载请注明此文出自:http://blog.csdn.net/xbinworld,Bin的专栏 Pattern Recognition and Machine Learning (PRML)书,章节1.2,Probability Theory (上)这一节是浓缩了整本书关于概率论的精华,突出一个不确定性(uncertainty)的理解。我看的比较慢,是想要细扣一下,而
2013-04-26 18:34:32 2638 1
原创 今天开始学模式识别与机器学习Pattern Recognition and Machine Learning 书,章节1.1,多项式曲线拟合(Polynomial Curve Fitting)
原创书写,转载请注明此文出自:http://blog.csdn.net/xbinworld,Bin的专栏 Pattern Recognition and Machine Learning (PRML)书学习,章节1.1,介绍与多项式曲线拟合(Polynomial Curve Fitting)博士也快念完了,明年毕业,今年开始准备毕业相关的东西,感觉自己做machine lear
2013-04-26 18:32:51 4142 1
原创 机器学习降维算法四:Laplacian Eigenmaps 拉普拉斯特征映射
原创书写,转载请注明此文出自:http://www.cnblogs.com/xbinworld,http://blog.csdn.net/xbinworld Laplacian Eigenmaps 继续写一点经典的降维算法,前面介绍了PCA,LDA,LLE,这里讲一讲Laplacian Eigenmaps。其实不是说每一个算法都比前面的好,而是每一个算法都是从不同角度去看问题,
2013-04-26 18:15:22 23505 4
原创 机器学习降维算法三:LLE (Locally Linear Embedding) 局部线性嵌入
如引用请务必注明此文出自:http://blog.csdn.net/xbinworldLLE Locally linear embedding(LLE)[1] 是一种非线性降维算法,它能够使降维后的数据较好地保持原有流形结构。LLE可以说是流形学习方法最经典的工作之一。很多后续的流形学习、降维方法都与LLE有密切联系。见图1,使用LLE将三维数据(b)映射到二维(c)
2013-04-26 18:02:54 16393 3
原创 机器学习降维算法二:LDA(Linear Discriminant Analysis)
额距离上一篇blog已经有很长的时间了,之前一直在忙着做一个工作,最近告一段落,还是要写blog啊!很多基础知识有些遗忘了,也算作是一种复习。我尽量推导的关键的地方写写,建议大家还是要手动推一推公式增加理解。 Linear Discriminant Analysis (也有叫做Fisher Linear Discriminant)是一种有监督的(supervised)线性降维算法。与PCA
2011-11-21 11:09:11 11315
原创 matlab 绘图字体大小控制
坐标图上有各种数字和文字,因为图的大小关系,经常会需要去调节字体的大小,这里简单列举一下,以后想到了再补充~ 通用方法:在绘制完成的图里面,点上面的edit plot,之后点你需要改的地方的右键,如果需要比较复杂的修改就双击图片,之后再找需要改的地方。 设置
2011-10-17 18:52:01 11280
原创 机器学习降维算法一:PCA(主成分分析算法)
引言:机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达,目前最多使用向量表达形式。 y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的)。f可能是显式的或隐式的、线性的或非线性的。目前大部分降维算法处理向量表达的数据,也有一些降维算法处理高阶张量
2011-09-22 10:37:38 10503 1
原创 信息检索X科普一:查准与召回(Precision & Recall),F1 Measure
好吧,其实我也不是IR专家,但是我喜欢IR,最近几年国内这方面研究的人挺多的,google和百度的强势,也说明了这个方向的价值。当然,如果你是学IR的,不用看我写的这些基础的东西咯。如果你是初学者或者是其他学科的,正想了解这些科普性质的知识,那么我这段时间要写的这个“信息检索X科
2011-09-02 11:28:26 3414
原创 matlab绘图的坐标轴数字、范围、间隔控制
matlab绘图的时候只用plot函数出来的图不一定符合自己最想要的格式, 经常要对坐标的数字、范围、间隔做处理。虽然不是什么很难的操作,但是确实常用,也容易忘记,所以就放在这里说明一下: x = (1:50);y = sin(x);plot(x,y,'-r
2011-09-01 13:21:18 63569
原创 计算机方向的一些顶级会议和期刊—Top Conferences and Journals in Computer Science
计算机科学的论文最大特点在于:极度重视会议,而期刊则通常只用来做re-publication,也就是说很多期刊文章是会议论文的扩展版,而不是首发的工作。并且期刊的录用到发表中间的等待时间极长,有的甚至需要等上1-2年,因此即使投稿时是最新的工作,等发表的时候也不一定是最新了!
2011-09-01 10:21:24 7686 3
原创 CSDN博客开通第一文
本人是浙大计算机PHD在读,今天开通CSDN博客,希望在这里记录自己的成长。我的研究方向是信息检索、机器学习,对Web应用、搜索技术、社交网络等许多问题感兴趣:) 以后记录的内容还没有想好,最近有点忙。也许会写一些学到的东西(比如Google RageRank, SVM
2010-10-10 21:55:00 1518
A disciplined approach to neural network hyper-parameters Part I
2020-02-09
Matplotlib.ipynb
2020-02-08
Reinforcement Learning an Introduction,2018最新版(第二版)
2018-01-13
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人