自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(43)
  • 资源 (1)
  • 收藏
  • 关注

转载 计算机视觉和图像处理相关的国际会议一览表

LevelConference NameConference LocationSubmission DeadlineConference DateWebsite★★★★★SIGGRAPH 2016:Computer Graphics and Interactive techniq

2016-10-25 10:14:52 1641

转载 Training Region-based Object Detectors with Online Hard Example Mining(CVPR2016 Oral)

转载自:http://zhangliliang.com/2016/04/13/paper-note-ohem/Training Region-based Object Detectors with Online Hard Example Mining是CMU实验室和rbg大神合作的paper,cvpr16的oral,来源见这里:http://arxiv.org/pdf/1604.03540

2016-10-21 10:59:39 1092

转载 深度学习中的数学与技巧(13):神经网络之激活函数

神经网络之激活函数(Activation Function)本博客仅为作者记录笔记之用,不免有很多细节不对之处。还望各位看官能够见谅,欢迎批评指正。更多相关博客请猛戳:http://blog.csdn.net/cyh_24如需转载,请附上本文链接:http://blog.csdn.net/cyh_24/article/details/50593400

2016-10-21 10:46:57 2495

原创 FFmepg参考笔记与例程

http://blog.csdn.net/leixiaohua1020/article/category/1360795逝者如斯,感恩=====================================================最简单的基于FFmpeg的移动端例子系列文章列表:最简单的基于FFmpeg的移动端例子:Android HelloWorld最简

2016-10-21 10:32:11 572

转载 深度学习中的数学与技巧(12):机器学习网易公开课笔记

吴恩达(Andrew Ng)07年在网易公开课上的课程。一共20讲。每看完一个视频,我都要总结出基本思想及公式推导过程。今特组成专栏,希望能帮到大家。http://blog.csdn.net/column/details/ml-ng-record.html

2016-10-21 10:18:38 980

转载 施一公:优秀博士如何养成(全文) 清华大学演讲

****************************************************************************我们只能自己寻找导师,而不是那些只会酒桌文化的领导。时间:2012年6月27日 来源:清华大学(一)    所有成功的科学家一定具有的共同点,就是他们必须付出大量的时间和心血。这是一条真理。实际上,无论社会上

2016-10-20 19:54:03 1093

转载 深度学习中的数学与技巧(11):dropout原理解读

理解dropout注意:图片都在github上放着,如果刷不开的话,可以考虑翻墙。转载请注明:http://blog.csdn.net/stdcoutzyx/article/details/49022443开篇明义,dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个mini-b

2016-10-20 19:49:33 4032

转载 深度学习中的数学与技巧(10):PCA的数学原理

reference:http://blog.codinglabs.org/articles/pca-tutorial.htmlPCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。网上关于PCA的文章有很多,但是大多数只描述了PCA的分析过程,而

2016-10-20 18:25:52 1692

转载 深度学习中的数学与技巧(9):协方差矩阵的几何解释

reference:https://www.cnblogs.com/nsnow/p/4758202.htmlA geometric interpretation of the covariance matrixhttp://www.visiondummy.com/2014/04/geometric-interpretation-covariance-matrix/译文:

2016-10-20 17:32:18 4946

转载 深度学习中的数学与技巧(8):矩阵及其变换、特征值与特征向量的物理意义

reference:https://www.cnblogs.com/chaosimple/p/3172039.html最近在做聚类的时候用到了主成分分析PCA技术,里面涉及一些关于矩阵特征值和特征向量的内容,在网上找到一篇对特征向量及其物理意义说明较好的文章,整理下来,分享一下。 一、矩阵基础[1]:矩阵是一个表示二维空间的数组,矩阵可以看做是一个变换。在线性代数中

2016-10-20 17:23:27 2770

转载 深度学习中的数学与技巧(7):特征值和特征向量的几何意义、计算及其性质

一、特征值和特征向量的几何意义特征值和特征向量确实有很明确的几何意义,矩阵(既然讨论特征向量的问题,当然是方阵,这里不讨论广义特征向量的概念,就是一般的特征向量)乘以一个向量的结果仍是同维数的一个向量。因此,矩阵乘法对应了一个变换,把一个向量变成同维数的另一个向量。那么变换的效果是什么呢?这当然与方阵的构造有密切的关系,比如可以取适当的二维方阵,使得这个变换的效果就是将平面上的二维

2016-10-20 10:48:03 5144

转载 深度学习中的数学与技巧(6): 详解协方差与协方差矩阵计算

协方差的定义 对于一般的分布,直接代入E(X)之类的就可以计算出来了,但真给你一个具体数值的分布,要计算协方差矩阵,根据这个公式来计算,还真不容易反应过来。网上值得参考的资料也不多,这里用一个例子说明协方差矩阵是怎么计算出来的吧。记住,X、Y是一个列向量,它表示了每种情况下每个样本可能出现的数。比如给定则X表示x轴可能出现的数,Y表示y轴可能出现的。注意这里是关键,给定了4

2016-10-20 10:39:23 16239 2

转载 深度学习中的数学与技巧(5):白化whitening

一、相关理论    白化这个词,可能在深度学习领域比较常遇到,挺起来就是高大上的名词,然而其实白化是一个比PCA稍微高级一点的算法而已,所以如果熟悉PCA,那么其实会发现这是一个非常简单的算法。    白化的目的是去除输入数据的冗余信息。假设训练数据是图像,由于图像中相邻像素之间具有很强的相关性,所以用于训练时输入是冗余的;白化的目的就是降低输入的冗余性。    输入数据集

2016-10-19 15:47:32 4796

转载 深度学习中的数学与技巧(4): BatchNormalization 代码实现

BatchNormalization是神经网络中常用的参数初始化的方法。其算法流程图如下: 我们可以把这个流程图以门电路的形式展开,方便进行前向传播和后向传播: 那么前向传播非常简单,直接给出代码:def batchnorm_forward(x, gamma, beta, eps): N, D = x.shape #为了后向传播求导方便,这里都是分步进行的

2016-10-19 15:43:27 3350

转载 深度学习中的数学与技巧(3):从Bayesian角度浅析Batch Normalization

前置阅读:http://blog.csdn.net/happynear/article/details/44238541——Batch Norm阅读笔记与实现前置阅读:http://www.zhihu.com/question/38102762——知乎网友Deep Learning与Bayesian Learning在很多情况下是相通的,随着Deep Learning理论的

2016-10-19 15:41:36 1543

转载 深度学习中的数学与技巧(2):《Batch Normalization Accelerating Deep Network Training by Reducing Interna

今年过年之前,MSRA和Google相继在ImagenNet图像识别数据集上报告他们的效果超越了人类水平,下面将分两期介绍两者的算法细节。  这次先讲Google的这篇《Batch Normalization Accelerating Deep Network Training by Reducing Internal Covariate Shift》,主要是因为这里面的思想比较有普适性,

2016-10-19 15:37:09 929

转载 深度学习中的数学与技巧(1):BN之利用随机前馈神经网络生成图像观察网络复杂度

零、声明这是一篇失败的工作,我低估了batch normalization里scale/shift的作用。细节在第四节,请大家引以为戒。一、前言  关于神经网络的作用有一个解释:它是一个万能函数逼近器。通过BP算法调整权重,在理论上神经网络可以近似出任意的函数。   当然,要近似出来的函数的复杂度肯定不能超过神经网络的表达能力,不然就会产生欠拟合的现象。而一个网络能承载

2016-10-19 15:28:00 1697

转载 使用GraphViz画caffe/torch的网络结构图

caffe的Python接口中有一个很不错的功能:画网络结构图,虽然画得并不好看,但可以给人一种直观的感受。一、准备  首先caffe的python接口当然是必备的了,还没有生成python接口的同学可以参照我的上一篇博客来生成。   然后是需要安装protobuf的python接口,可以参照这篇博客进行安装,安装过程比较简单,就不赘述了。   安装GraphViz:http://

2016-10-19 15:14:16 3214

转载 GANs学习系列(5): 生成式对抗网络Generative Adversarial Networks

【前言】     本文首先介绍生成式模型,然后着重梳理生成式模型(Generative Models)中生成对抗网络(Generative Adversarial Network)的研究与发展。作者按照GAN主干论文、GAN应用性论文、GAN相关论文分类整理了45篇近两年的论文,着重梳理了主干论文之间的联系与区别,揭示生成式对抗网络的研究脉络。 涉及的论文有: [1] Goodfell

2016-10-17 18:43:53 22939 1

转载 GANs学习系列(4):对抗样本和对抗网络

前言:本文转载lancezhange 的博文《对抗样本和对抗网络》,文章介绍了对抗样本的概念和相关文献,并且进一步介绍了生成式对抗网络(Generative Adversarial Nets, GAN)。    所谓对抗 样本是指将实际样本略加扰动而构造出的合成样本,对该样本,分类器非常容易将其类别判错,这意味着光滑性假设(相似的样本应该以很高的概率被判为同一类别)某种程度上被推翻了。

2016-10-17 18:29:36 3844 1

转载 torch入门笔记17:使用随机梯度下降训练神经网络StochasticGradient

使用随机梯度下降训练神经网络StochasticGradient是一个比较高层次的类,它接受两个参数,module和criterion,前者是模型结构,后者是损失函数的类型。这个类本身有一些参数:LearningRate: 这是学习率,不用多说LearningRateDecay: 学习率衰减,current_learning_rate =learningRate / (1

2016-10-12 15:27:24 1885

转载 torch入门笔记16:Sequencialization序列化

1.序列化Torch提供4种高级方法来序列化或者反序列化任意Lua/Torch对象。这些方法都是从File对象抽象出来的,为了方便操作而创建。 前两种方法用来从文件序列化或者反序列化的:torch.save(filename,object [, format])[object] torch.load(filename [, format]) 

2016-10-12 15:25:37 1374

转载 torch入门笔记15:nn package详解

神经网络Package【目前还属于草稿版,等我整个学习玩以后会重新整理】模块Modulemodule定义了训练神经网络需要的所有基础方法,并且是可以序列化的抽象类。module有两种状态变量:output和gradInput [output] forward(input) 利用input对象计算其对应的output。通常input和o

2016-10-12 15:22:36 2208

转载 torch入门笔记14:Torch中optim的sgd(Stochastic gradient descent)方法的实现细节

Torch中optim的sgd(Stochastic gradient descent)方法的实现细节Overviewsgd的全称是Stochastic gradient descent,关于Stochastic gradient descent我们不在本文详述。 Stochastic gradient descent https://en.wikipedia.org/wi

2016-10-09 17:12:30 5700 1

转载 torch入门笔记13:实现cnn图像分类

这一章主要分享预测的基本操作,并且先将前面分享的内容总结下,完整地实现CNN图像分类的实例require 'paths';require 'nn';---Load TrainSetpaths.filep("/home/ubuntu64/cifar10torchsmall.zip"); trainset = torch.load('cifar10-train.t7');test

2016-10-09 15:09:05 4581 2

转载 torch入门笔记12:数据的预处理

这一章用实例讲解在正式训练前需要对训练集的处理以及基本操作,请大家从头开始运行itorch 导入两个包,虽然这章没有涉及网络的建立,但是不导入nn这个包的话,数据的读入会出错,具体我也不太清楚,这个是google出来的,我刚开没有导入nn包,导致文件一直无法读取。  参数为文件的绝对路径,文件的下载我放到了这里(需要2个积分下载,请大家支持下,如果实在没有积分的话,给我发私

2016-10-09 15:06:22 1854 3

原创 torch入门笔记11:如何训练神经网络

这一节先介绍一些基本操作,然后再对我们前面建立的网络进行训练神经网络的前向传播和反向传播 随即生产一张照片,1通道,32x32像素的。为了直观像是,导入image包,然后用itorch.image()方法显示生成的图片,就是随即的一些点。  用之前建立好的神经网络net调用forward()方法输入随即生成的图片得到输出的结果,如打印出来的形式,net最后是10个输

2016-10-09 15:00:39 3858

转载 torch入门笔记10:如何建立torch神经网络模型

这一章不涉及太多的神经网络的原理,重点是介绍如何使用Torch7神经网络  首先require(相当于c语言的include)nn包,该包是神经网络的依赖包,记得在语句最后加上“;”,这个跟matlab一样不加的话会打印出来数据。Torch可以让我们自己一层一层的设计自己的网络,像是容器一样可以一层一层地把你自己的Layer(神经网络的中的层)往里面添加。  首先,要构

2016-10-09 14:58:49 4223 1

转载 torch入门笔记9:function

函数的使用  这是函数的定义方式,声明的关键字+定义的函数名+形参的名字,在此博主返回两个值,具体的函数功能在后面再说  这是初始化一个5x2的矩阵,并且初值都为1。这里有多了一种初始化矩阵的方法。  这是先声明一个2x5的矩阵,然后再调用fill()方法其值全部初始化为4。  将a,b矩阵输入到addTensors函数里面,注意这里是实参,前面定义的a,b是形参,

2016-10-09 14:56:08 1012

转载 torch入门笔记8:tensor

http://blog.csdn.net/u010946556/article/details/51329561 转载请注明出处Torch里非常重要的结构Tensor(张量),类似于Python用的Numpy  声明Tensor的格式如12行,打印a可以得到一个5x3的矩阵,这里的没有赋初值,但是Torch也会随即赋值的,具体的就跟c++里面的生命了变量虽没有初始化,但是还是会

2016-10-09 14:52:26 1063

转载 torch入门笔记7:Torch的入门使用

http://blog.csdn.net/u010946556/article/details/51329208 转载请注明出处本博文目标是介绍Torch的入门使用博主采用iTorch界面编写,以下以图片方式展示代码。 如果记不清哪个方法的名字了可以在iTorch里面点“Tab”键会有智能输入,类似matlab简单地介绍String,numbers,tabl

2016-10-09 14:47:56 1051

转载 Deep Learning 工具 Torch7安装与使用

源代码: https://github.com/torch官方文档: http://torch.ch/Torch7:https://github.com/torch/torch7/wiki/Cheatsheet安装过程:1. node.js install, then gfx install, 要按照顺序https://gist.github.c

2016-10-09 14:44:43 615

原创 Torch/Lua学习资料汇总

reference: http://blog.csdn.net/jiejinquanil/article/details/49820471在学习Torch/Lua的过程中,积累了一些资料,现汇总如下,自己会随时补充,也欢迎大家补充!1、Torch Package Reference Manual,Torch帮助手册 网址:http://torch7.readthedocs.or

2016-10-09 14:31:34 694

转载 学习Torch框架的该看的资料汇总

总说Torch7是一个特别好的框架啊,简洁明了!在学习torch的过程中,总结出一些该看的东西。可以好好看看。Lua必看首先是基础的lua知识,这四部分的教程特别简洁明了,完全不像其他教程的墨迹啊。(⊙o⊙)… Lua for Programmers Part 1: Language Essentials Lua for Programmers Part 2

2016-10-09 14:25:04 673

转载 TensorFlow之深入理解Fast Neural Style

reference: http://hacker.duanshishi.com/?p=1639前言前面几篇文章讲述了在Computer Vision领域里面常用的模型,接下来一段时间,我会花精力来学习一些TensorFlow在Computer Vision领域的应用,主要是分析相关pape和源码,今天会来详细了解下fast neural style的相关工作,前面也有文章分析n

2016-10-09 14:15:13 4396

转载 TensorFlow之深入理解Neural Style

前言前面TensorFlow入门一简单讲了下怎么在Ubuntu安装tensorflow gpu版本,也跑了下基于Mnist的比较基本的LR算法,但是Tensorflow可远远不止这些,它能做很多很有意思的东西,这篇文章主要针对Tensorflow利用CNN的方法对艺术照片做下Neural Style的相关工作。首先,我会详细解释下A Neural Algorithm of Artistic

2016-10-09 13:56:26 3452 1

转载 torch入门笔记5:用torch实现RNN来制作一个神经网络计时器

本节代码地址https://github.com/vic-w/torch-practice/tree/master/rnn-timerRNN全称Recurrent Neural Network(卷积神经网络),是通过在网络中增加回路而使其具有记忆功能。对自然语言处理,图像识别等方面都有深远影响。这次我们要用RNN实现一个神经网络计时器,给定一个时间长度,它会等待直到时间

2016-10-09 11:27:42 1005

转载 torch入门笔记4:用torch实现MNIST手写数字识别

本节代码地址:https://github.com/vic-w/torch-practice/tree/master/mnistMNIST是手写数字识别的数据库。在深度学习流行的今天,MNIST数据库已经被大家玩坏了。但是用它来学习卷积神经网络是再好不过的了。这一次,我们就用Torch来实现MNIST数据库的识别。这一次的代码用到了mnist库,如果之前没有安装,可以在命令

2016-10-09 10:07:08 1376

转载 torch入门笔记2:用torch实现线性回归

代码地址: https://github.com/vic-w/torch-practice/tree/master/linear-reg神经网络是由很多逻辑回归的节点级联组成的。而所谓逻辑回归,就是一个线性变换连接一个Sigmoid函数。所以说线性回归是神经网络最基本的组成单元。这里先介绍一下最简单的线性回归,也就是单输入单输出函数的拟合。它的效果等同于用最小二乘法在二维空间里拟合出一

2016-10-08 17:33:10 1346

转载 torch入门笔记3:用torch实现多层感知器

转自:http://www.aichengxu.com/view/2464033代码地址:https://github.com/vic-w/torch-practice/tree/master/multilayer-perceptron上一次我们使用了输出节点和输入节点直接相连的网络。网络里只有两个可变参数。这种网络只能表示一条直线,不能适应复杂的曲线。我们将把它改造为一个多层网络

2016-10-08 17:18:07 836

cacert.pem

修复SSL_connect returned=1 errno=0 state=SSLv3 read server certificate B: certificate verify failed.工具

2017-05-20

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除