- 博客(11)
- 资源 (5)
- 收藏
- 关注
转载 matrix inversion in boost
#include #include #include #include #include #include #include namespace ublas = boost::numeric::ublas; template bool InvertMatrix (const ublas::matrix& input, ublas::matrix& inverse)
2014-05-30 19:48:29 961
转载 Looping over the non-zero elements of a uBlas sparse matrix
You can find the answer in this FAQ: How to iterate over all non zero elements?In your case it would be:typedef boost::numeric::ublas::compressed_matrix::iterator1 it1_t;typedef boost::numeri
2014-05-26 21:06:50 539
转载 Python中map()函数浅析
MapReduce的设计灵感来自于函数式编程,这里不打算提MapReduce,就拿python中的map()函数来学习一下。文档中的介绍在这里:map(function, iterable, ...)Apply function to every item of iterable and return a list of the results. If addition
2014-05-26 11:22:16 509
转载 Python SciPy Sparse模块学习笔记
1. sparse模块的官方document地址:http://docs.scipy.org/doc/scipy/reference/sparse.html2. sparse matrix的存储形式有很多种,见此帖子http://blog.csdn.net/anshan1984/article/details/8580952不同的存储形式在sparse模块中对应如下:bsr_m
2014-05-25 15:57:14 1446
转载 稀疏矩阵的存储格式(Sparse Matrix Storage Formats)
稀疏矩阵的存储格式(Sparse Matrix Storage Formats)Sason@CSDN 对于很多元素为零的稀疏矩阵,仅存储非零元素可使矩阵操作效率更高。现有许多种稀疏矩阵的存储方式,但是多数采用相同的基本技术,即存储矩阵所有的非零元素到一个线性数组中,并提供辅助数组来描述原数组中非零元素的位置。以下是几种常见的稀疏矩阵存储格式:1.
2014-05-25 11:11:00 1077
转载 损失函数(loss function)
通常而言,损失函数由损失项(loss term)和正则项(regularization term)组成。发现一份不错的介绍资料:http://www.ics.uci.edu/~dramanan/teaching/ics273a_winter08/lectures/lecture14.pdf (题名“Loss functions; a unifying view”)。
2014-05-24 15:16:48 2364
原创 Numpy 创建字符数组(矩阵)
import numpy as npa = np.ones((3,4)) #3x4数组b = a.astype(np.str) #转换成字符类型
2014-05-24 09:02:17 10926 1
原创 python 实现spectral clustering
import numpy as npimport mathimport sysfrom scipy.cluster.vq import kmeans2def SpectralClustering(simi_matrix,cluster_num): N,N = np.shape(simi_matrix); DN = np.diag(1/np.sqrt(np.sum(simi_matri
2014-05-21 18:58:54 1860 1
转载 一个很好的Tutorial
虽然这个Tutorial是关于Deep Learning的,但一开始也从最简单的Logistic Regression开始;有理论、有代码、有数据集、有傻瓜似的步骤;新同学一步一步看看收获也不少。http://deeplearning.net/tutorial/deeplearning.pdf
2014-05-09 11:17:45 449
转载 介绍几本数学书
优秀的人我们就去要学习,学习人家的长处。Dahua Lin原来是科大的本科,然后去港中文读的硕士,现在在MIT。NIPS2010的Best Student Paper。他的数学功底很好,在原来的MSN博客上推荐了基本数学书,我转载至此。前面几篇谈了一些对数学的粗浅看法。其实,如果对某门数学有兴趣,最好的方法就是走进那个世界去学习和体验。这里说说几本我看过后觉得不错的数学教科书。
2014-05-09 10:31:27 630
转载 漫话距离(By Dahua Lin@MIT)
我们的生活从来不缺乏距离的概念, 无论是时间的还是空间的,可以测量的还是不可以测量的。自我们来到这个世界,就会用我们还很幼小的眼睛测量着自己和身边的人的距离,然后跟着距离自己最近 的人学叫“妈妈”;长大了,我们学会了用“距离产生美”这种不知道属于公理还是定理的命题,提醒自己不要和心仪的mm走得太近;而垂垂老矣的人们则开始计 算自己到生命终点的距离,盘算着什么时候该立遗嘱了。什么叫距离呢
2014-05-09 10:15:51 661
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人