基石
文章平均质量分 51
Andy_Jiao
现就读于重庆大学自动化学院,硕士研究生,主要研究方向是机器学习与图像处理,欢迎交流。
展开
-
图像分类练习
网址:http://www.robots.ox.ac.uk/~vgg/share/practical-image-classification.htm目的:原创 2014-03-03 10:41:46 · 782 阅读 · 0 评论 -
卷积特征提取—处理大型图像
网址;http://deeplearning.stanford.edu/wiki/index.php/UFLDL教程 仿真表明,如果将整幅图像运用imresize函数进行压缩,则训练样本过少。如果采用图像分块的方式,获取了大量的样本,并且确定了网络参数。那接下来如何运用这个参数去提取整幅图像的特征呢? 教程中举了一个例子。96*96的图像,假设训练时采用的8*8的patch原创 2014-03-21 10:40:55 · 13368 阅读 · 0 评论 -
信号的稀疏表示
前段时间接触过稀疏表示,没有认真去看,今天总结了一下。不码文字了,直接上图:1、关于字典:理解:记起以前学习的线性代数解方程组,y=Ax。M为方程个数,N为未知数个数(求出的x是字典?),当M>N时,此时无解,即y中的有些量无法表示,对应于欠完备字典;M 这里还有一种说法:注意正交矩阵的性质:A'A=E.原创 2014-03-21 10:38:13 · 2814 阅读 · 0 评论 -
Sparse Filtering、Sparse Coding学习笔记
本来想用Sparse Autoencoder来提取图像特征,搞了半天只能提取第二层的,参数太多,编程是个大问题,而且理论基础少而薄弱。无聊之下,发现这个网址:http://fastml.com/deep-learning-made-easy/,接触到sparse filtering,大体上觉得需要调节的参数比较少,就找过论文来看,并作笔记如下:原创 2014-03-06 10:19:25 · 1977 阅读 · 1 评论 -
PCA的简单理解
来源:http://deeplearning.stanford.edu/wiki/index.php/主成分分析理解:PCA(Principle Components Analysis ),是一种数据降维方法。首先求出数据的协方差矩阵,然后求得协方差矩阵的特征向量,将特征向量按主次进行排列(此处的主次通过大小来确定,特征向量大者为主,小者为次),将原数据在主特征向量方向进行投影,达到降维的效果原创 2014-03-04 21:53:21 · 748 阅读 · 0 评论 -
Sparse Autoencoder
网址:http://deeplearning.stanford.edu/wiki/index.php/UFLDL教程代码阅读:matlab基础(1)rempat函数:这是一个处理大矩阵且内容有重复时使用,举例如下:>B=repmat( [1 2;3 4],2,3)B = 1 2 1 2 1 23 4原创 2014-03-11 10:37:50 · 591 阅读 · 0 评论 -
关于白化
白化的目的是降低数据的冗余性,具体来讲:(1)特征之间相关性较低;(2)所有特征具有相同的方差。 当我们进行对图像训练时,由于图像个像素之间具有较高的相关性,此时白化就有很大的作用。原创 2014-03-14 11:18:53 · 681 阅读 · 0 评论 -
UFLDL教程—自编码线性解码器学习
做图像分类,将彩色图转化为灰度图,boss说丢失了颜色信息,说让参考color sift的相关思想,我搜资料无意中瞟到自编码线性解码器,它的练习是:运用稀疏自编码器提取颜色信息。那我就看看能不能用这种方法将颜色加进去。最近很急躁,大家都出论文了,急啊。不过,可还得慢慢看。原创 2014-03-10 20:49:06 · 624 阅读 · 0 评论 -
生成模型与判别模型
生成模型与判别模型分类: 计算机视觉 图像处理2012-11-17 23:24 4982人阅读 评论(6) 收藏 举报生成模型与判别模型zouxy09@qq.comhttp://blog.csdn.net/zouxy09 一直在看论文的过程中遇到这个问题,折腾了不少时间,然后是下面的一点理解,不知道正确否。若有错误,还望各位前辈不吝指正,以免小弟一错转载 2014-06-05 10:02:11 · 442 阅读 · 0 评论