ML
文章平均质量分 59
zhoucy163
这个作者很懒,什么都没留下…
展开
-
机器学习练习之正则化
这个练习是来自http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=MachineLearning&doc=exercises/ex5/ex5.htmlRegularized linear regression 之前已经做过线性回归, 我们知道线性回归就是要找到 一条直线去拟合训练数据,模转载 2014-04-30 16:27:23 · 659 阅读 · 0 评论 -
Armadillo sparse matrix get the index of an element
#include #include using namespace std;using namespace arma;typedef sp_fmat::row_iterator it1_t;int main(int argc, char** argv){ int dim = 10; sp_fmat a(dim,dim); sp_fmat b(dim,dim); for(si原创 2014-08-26 23:24:40 · 662 阅读 · 0 评论 -
boost compressed_matrix retrieve style is not random
typedef boost::numeric::ublas::compressed_matrix::iterator1 it1_t;typedef boost::numeric::ublas::compressed_matrix::iterator2 it2_t; my_time time; time.tic(); int count = 0; int index =原创 2014-08-25 17:50:22 · 703 阅读 · 0 评论 -
BOOST SPARSE MATRIX访问一行元素
boost sparse matrix 提供了两个只访问原创 2014-08-18 08:06:28 · 827 阅读 · 0 评论 -
训练深度神经网络的时候需要注意的一些小技巧
翻译网上的哈,我觉得有很大一部分从没看到过,所以就翻译了下,如有不对的地方,欢迎指正:1、准备数据:务必保证有大量、高质量并且带有干净标签的数据,没有如此的数据,学习是不可能的2、预处理:这个不多说,就是0均值和1方差化3、minibatch:建议值128,1最好,但是效率不高,但是千万不要用过大的数值,否则很容易过拟合4、梯度归一化:其实就是计算出来梯度之后,要除转载 2015-04-10 10:05:33 · 1034 阅读 · 0 评论 -
深度学习概述:从感知机到深度网络
(注:本文译自一篇博客,作者行文较随意,我尽量按原意翻译,但作者所介绍的知识还是非常好的,包括例子的选择、理论的介绍都很到位,由浅入深,源文地址) 近些年来,人工智能领域又活跃起来,除了传统了学术圈外,Google、Microsoft、facebook等工业界优秀企业也纷纷成立相关研究团队,并取得了很多令人瞩目的成果。这要归功于社交网络用户产生的大量数据,这些数据大都是原始数据,需要被进转载 2015-04-25 09:11:24 · 767 阅读 · 0 评论 -
深度学习简明介绍
本文翻译自 A Brief Overview of Deep Learning。如果对神经网络感兴趣,阅读 如何简单形象又有趣地讲解神经网络是什么? 这个问题下面的答案会很有帮助,强烈推荐。(这是来自 Ilya Sutskever 的关于深度学习(Deep learning)以及实践建议的约稿。感谢 Ilya 为本文付出的努力。)最近 Deep Learning 真的很流行,各种大转载 2015-04-25 09:08:42 · 633 阅读 · 0 评论 -
仿射空间
仿射空间[编辑]仿射空间,又称线性流形,是数学中的几何结构,这种结构是欧式空间的仿射特性的推广。在仿射空间中,点与点之间做差可以得到向量,点与向量做加法将得到另一个点,但是点与点之间不可以做加法。非正式描述[编辑]下面的非正式描述可能比正式的定义容易理解一些:仿射空间是没有起点只有方向大小的向量所构成的向量空间。假设有甲乙两人,其中甲知道一个空间中真正的转载 2015-05-06 17:28:53 · 2276 阅读 · 0 评论 -
matlab subspace函数 求解矩阵子空间的夹角(链接)
原作者一共发了7篇关于subspace函数实现的介绍,由于太长我就不复制到这来了,贴上链接,同学们感兴趣的自己去看吧。转载: 我觉得这是一个名不副实的函数,名为“子空间”,实际作用是求解两个子空间的夹角(Angle between two subspace)。所谓两个子空间的夹角,对于不怎么接触矩阵理论的人,听起来可能有点费解。其实说简单一点,像空间几何中转载 2015-05-07 09:39:32 · 3337 阅读 · 0 评论 -
Caffe中的优化方法
在Deep Learning中,往往loss function是非凸的,没有解析解,我们需要通过优化方法来求解。Caffe通过协调的进行整个网络的前向传播推倒以及后向梯度对参数进行更新,试图减小损失。 Caffe已经封装好了三种优化方法,分别是Stochastic Gradient Descent (SGD), AdaptiveGradient (ADAGRAD), and Nestero转载 2015-05-30 09:49:11 · 706 阅读 · 0 评论 -
在Ubuntu 14.04上安装Caffe
安装依赖sudo apt-get install libatlas-base-devsudo apt-get install libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libboost-all-dev libhdf5-serial-devsudo apt-get install libgflags-dev libg转载 2015-05-23 01:16:38 · 523 阅读 · 0 评论 -
a matrix library of c++ to replace the matlab
Armadillo is a high quality C++ linear algebra library, aiming towards a good balance between speed and ease of use原创 2014-08-23 16:06:49 · 627 阅读 · 0 评论 -
a site for finding reference bibtex
bibsonomy原创 2014-08-15 20:16:43 · 483 阅读 · 0 评论 -
马氏距离(Mahalanobis distance)和欧氏距离(Euclidean distance )
我们熟悉的欧氏距离虽然很有用,但也有明显的缺点。它将样品的不同属性(即各指标或各变量)之间的差别等同看待,这一点有时不能满足实际要求。例如,在教育研究中,经常遇到对人的分析和判别,个体的不同属性对于区分个体有着不同的重要性。因此,有时需要采用不同的距离函数。如果用dij表示第i个样品和第j个样品之间的距离,那么对一切i,j和k,dij应该满足如下四个条件:①当且仅当i=j时,dij=0转载 2014-04-19 23:29:15 · 3004 阅读 · 0 评论 -
漫话距离(By Dahua Lin@MIT)
我们的生活从来不缺乏距离的概念, 无论是时间的还是空间的,可以测量的还是不可以测量的。自我们来到这个世界,就会用我们还很幼小的眼睛测量着自己和身边的人的距离,然后跟着距离自己最近 的人学叫“妈妈”;长大了,我们学会了用“距离产生美”这种不知道属于公理还是定理的命题,提醒自己不要和心仪的mm走得太近;而垂垂老矣的人们则开始计 算自己到生命终点的距离,盘算着什么时候该立遗嘱了。什么叫距离呢转载 2014-05-09 10:15:51 · 661 阅读 · 0 评论 -
一个很好的Tutorial
虽然这个Tutorial是关于Deep Learning的,但一开始也从最简单的Logistic Regression开始;有理论、有代码、有数据集、有傻瓜似的步骤;新同学一步一步看看收获也不少。http://deeplearning.net/tutorial/deeplearning.pdf转载 2014-05-09 11:17:45 · 449 阅读 · 0 评论 -
机器学习算法之旅
在理解了我们需要解决的机器学习问题之后,我们可以思考一下我们需要收集什么数据以及我们可以用什么算法。本文我们会过一遍最流行的机器学习算法,大致了解哪些方法可用,很有帮助。机器学习领域有很多算法,然后每种算法又有很多延伸,所以对于一个特定问题,如何确定一个正确的算法是很困难的。本文中我想给你们两种方法来归纳在现实中会遇到的算法。学习方式根据转载 2014-04-27 22:09:39 · 439 阅读 · 0 评论 -
python 实现spectral clustering
import numpy as npimport mathimport sysfrom scipy.cluster.vq import kmeans2def SpectralClustering(simi_matrix,cluster_num): N,N = np.shape(simi_matrix); DN = np.diag(1/np.sqrt(np.sum(simi_matri原创 2014-05-21 18:58:54 · 1862 阅读 · 1 评论 -
损失函数(loss function)
通常而言,损失函数由损失项(loss term)和正则项(regularization term)组成。发现一份不错的介绍资料:http://www.ics.uci.edu/~dramanan/teaching/ics273a_winter08/lectures/lecture14.pdf (题名“Loss functions; a unifying view”)。转载 2014-05-24 15:16:48 · 2364 阅读 · 0 评论 -
Python SciPy Sparse模块学习笔记
1. sparse模块的官方document地址:http://docs.scipy.org/doc/scipy/reference/sparse.html2. sparse matrix的存储形式有很多种,见此帖子http://blog.csdn.net/anshan1984/article/details/8580952不同的存储形式在sparse模块中对应如下:bsr_m转载 2014-05-25 15:57:14 · 1446 阅读 · 0 评论 -
稀疏矩阵的存储格式(Sparse Matrix Storage Formats)
稀疏矩阵的存储格式(Sparse Matrix Storage Formats)Sason@CSDN 对于很多元素为零的稀疏矩阵,仅存储非零元素可使矩阵操作效率更高。现有许多种稀疏矩阵的存储方式,但是多数采用相同的基本技术,即存储矩阵所有的非零元素到一个线性数组中,并提供辅助数组来描述原数组中非零元素的位置。以下是几种常见的稀疏矩阵存储格式:1.转载 2014-05-25 11:11:00 · 1077 阅读 · 0 评论 -
Looping over the non-zero elements of a uBlas sparse matrix
You can find the answer in this FAQ: How to iterate over all non zero elements?In your case it would be:typedef boost::numeric::ublas::compressed_matrix::iterator1 it1_t;typedef boost::numeri转载 2014-05-26 21:06:50 · 539 阅读 · 0 评论 -
boost sparse matrix row and column
#include #include #include int main () { using namespace boost::numeric::ublas; matrix m (3, 3); for (unsigned j = 0; j < m.size2 (); ++ j) { matrix_column > mc (m, j); f原创 2014-06-01 20:05:01 · 936 阅读 · 0 评论 -
算法杂货铺——分类算法之朴素贝叶斯分类(Naive Bayesian classification)
0、写在前面的话 我个人一直很喜欢算法一类的东西,在我看来算法是人类智慧的精华,其中蕴含着无与伦比的美感。而每次将学过的算法应用到实际中,并解决了实际问题后,那种快感更是我在其它地方体会不到的。 一直想写关于算法的博文,也曾写过零散的两篇,但也许是相比于工程性文章来说太小众,并没有引起大家的兴趣。最近面临毕业找工作,为了能给自己增加筹码,决定再次复习算法方面的知转载 2015-06-11 21:14:36 · 465 阅读 · 0 评论