概念理解
文章平均质量分 78
SusanZhang1231
过好每一天,开心
展开
-
简析PCA
PCA 具有两个功能:(1)数据降维(2)数据可视化、本篇文章主要是简述PCA在图像方面的可视化,下面将结合代码来讲述一下整个PCA的过程:1.首先获得一些关于自然图像的data,例如需要用在Auto-encoder,或者CNN中的最简单的数据格式,本文我是用到了一个64*2400000,数据不算大只是用来测试。其中前边的64=8*8指的是你从一张图像上取的patch的大小(8),原创 2016-08-12 21:15:47 · 1400 阅读 · 0 评论 -
集成学习 ensemble learning
通过学习周志华老师的机器学习一书,对集成学习做一些笔记。集成学习(ensemble learning)是通过构建并结合多个学习器来完成学习任务的,因此有写文章中也称其为多分类器系统(multi-classifier system)或者是委员会学习(committee-based learning)。下图是集成学习的一般结构,将一组“个体学习器”(individual learner)用一些原创 2016-11-22 10:39:45 · 4072 阅读 · 0 评论 -
迹,最大平均差异,核函数等基本概念理解
迹,tied-weights,最大平均差异,核函数,正则化原创 2017-06-20 11:09:11 · 3459 阅读 · 0 评论 -
学习笔记:生成对抗网络(Generative Adversarial Nets)(附代码)
同时训练两个模型:(1)生成模型G,不断捕捉训练库里真是图片的概率分布,将输入的随机噪声转变成新的样本(即假数据),使其像是一个真的图片。(2)判别模型D,用来估计一个样本来自训练数据的概率,即它可以同时观察真是和假造的数据,并判断这个数据的真假(这个数据是不是从数据集中获取的图片)。在训练的过程中让两个网络互相竞争。刚开始的时候这两个模型均未经过训练,然后生成模型产生一张假数据欺骗判别模型,判别模原创 2017-06-22 14:52:56 · 5868 阅读 · 0 评论 -
范数理解(0范数,1范数,2范数)
刚刚结束,若有错误请多多指教。转载自http://www.zhihu.com/question/20473040/answer/102907063可以从函数、几何与矩阵的角度去理解范数。我们都知道,函数与几何图形往往是有对应关系的,这个很好想象,特别是在三维以下的空间内,函数是几何图像的数学概括,而几何图像是函数的高度形象化,比如一个函数对应几何空间上若干点组成的图形。但当转载 2016-08-05 10:54:35 · 174290 阅读 · 3 评论 -
均值,白化,Siamese网络,双线性插值
减去均值,白化:在训练一个网络的时候我们经常会做对输入减去均值,以及白化等操作,其目的均是为了加快训练速度。关于原因一般我们输入的图像数据是高度相关的,假设其分布如下图a所示,由于初始化模型参数时,一般参数时0均值的,因此开始的拟合y=Wx+b基本是过原点的,如图b红色线所示,因此网络需要经过多次学习才能够达到如紫色实现的拟合,因此训练过程中模型的收敛速度慢。如果我们对输入的数据先做减均值操作,便原创 2017-07-09 17:32:32 · 801 阅读 · 0 评论 -
卷积神经网络CNN经典模型Lenet,Alexnet,Googlenet,VGG,Deep Residual Learning
本篇文章转载自:Bin的专栏blog.csdn.net/xbinworld。 关于卷积神经网络CNN,网络和文献中有非常多的资料,我在工作/研究中也用了好一段时间各种常见的model了,就想着简单整理一下,以备查阅之需。如果读者是初接触CNN,建议可以先看一看“Deep Learning(深度学习)学习笔记整理系列”中关于CNN的介绍[1],是介绍我们常说的Lenet为例,相信会对初学者有帮助。转载 2017-07-10 14:24:24 · 752 阅读 · 0 评论 -
GAN公式原理推到
上一篇论文中介绍了GAN[1]的原理,这篇继续介绍下它的公式推导的具体的过程,如果需要原理介绍的,可以回到上一篇关于GAN的文章的介绍中。(http://blog.csdn.net/susanzhang1231/article/details/73604302) 这张图给出了GAN训练的过程:首先固定G中的参数,训练一个可以用于分类的D,然后固定D的参数,调整G的参数,使其产生的图片送入当前的D中原创 2017-08-08 14:38:33 · 9412 阅读 · 5 评论