自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(24)
  • 资源 (1)
  • 收藏
  • 关注

转载 GANs学习系列(8):Deep Convolutional Generative Adversarial Nerworks,DCGAN

【前言】     本文首先介绍生成式模型,然后着重梳理生成式模型(Generative Models)中生成对抗网络(Generative Adversarial Network)的研究与发展。作者按照GAN主干论文、GAN应用性论文、GAN相关论文分类整理了45篇近两年的论文,着重梳理了主干论文之间的联系与区别,揭示生成式对抗网络的研究脉络。 本文涉及的论文有:Goodfello

2016-11-30 17:16:12 3563

转载 GANs学习系列(7): 拉普拉斯金字塔生成式对抗网络Laplacian Pyramid of Adversarial Networks

【前言】     本文首先介绍生成式模型,然后着重梳理生成式模型(Generative Models)中生成对抗网络(Generative Adversarial Network)的研究与发展。作者按照GAN主干论文、GAN应用性论文、GAN相关论文分类整理了45篇近两年的论文,着重梳理了主干论文之间的联系与区别,揭示生成式对抗网络的研究脉络。 本文涉及的论文有:Goodfello

2016-11-30 16:42:48 6745 1

转载 GANs学习系列(6):条件生成式对抗网络Conditional Generative Adversarial Networks

【前言】     本文首先介绍生成式模型,然后着重梳理生成式模型(Generative Models)中生成对抗网络(Generative Adversarial Network)的研究与发展。作者按照GAN主干论文、GAN应用性论文、GAN相关论文分类整理了45篇近两年的论文,着重梳理了主干论文之间的联系与区别,揭示生成式对抗网络的研究脉络。 本文涉及的论文有: [1] Goodfe

2016-11-30 16:33:26 34750 2

转载 生成式模型 future application

我们需要生成(Generative models)模型,这样就能从关联输入移动到输出之外,进行半监督分类(semi-supervised classification)、数据操作(semi-supervised classification)、填空(filling in the blank)、图像修复(inpainting)、去噪(denoising)、one-shot生成 [Rezende et

2016-11-30 16:15:57 840

转载 Image Generation Paper Reference

转自http://handong1587.github.io/deep_learning/2015/10/09/image-generation.htmlPapersOptimizing Neural Networks That Generate Images(2014. PhD thesis)paper : http://www.cs.toronto.edu/~tij

2016-11-30 16:00:03 1410

转载 caffe中的卷积的计算细节和1x1卷积作用

在卷积神经网络中,卷积算是一个必不可少的操作,下图是一个简单的各层的关系。可以看出一个很好的扩展的关系,下面是整个卷积的大概的过程图中上半部分是传统的卷积的操作,下图是一个矩阵的相乘的操作。下图是在一个卷积层中将卷积操作展开的具体操作过程,他里面按照卷积核的大小取数据然后展开,在同一张图里的不同卷积核选取的逐行摆放,不同N的话,就在同一行后面继续拼接,不同个可以是多

2016-11-30 15:23:30 7291

原创 LeetCode Index For Reference

http://blog.csdn.net/sinat_17451213/article/category/6168691

2016-11-28 13:47:16 351

转载 SVM hinge loss / SoftMax cross entropy loss

损失函数(loss function) = 误差部分(loss term) + 正则化部分(regularization term)1. 误差部分1.1 gold term,0-1损失函数,记录分类错误的次数1.2 Hinge loss, 折叶损失,关于0的阀值定义:E(z)=max(0,1-z)应用: SVM中的最大化间隔分

2016-11-28 13:46:16 4157

转载 Deep Learning方向的paper整理

http://hi.baidu.com/chb_seaok/item/6307c0d0363170e73cc2cb65个人阅读的Deep Learning方向的paper整理,分了几部分吧,但有些部分是有交叉或者内容重叠,也不必纠结于这属于DNN还是CNN之类,个人只是大致分了个类。目前只整理了部分,剩余部分还会持续更新。一 RNN1 Recurrent n

2016-11-28 11:25:34 1011

原创 Autoencorder理解(4):生成网络的类比

转完上面三篇来进行总结一下:其实自动编码器相当于构建一个神经网络让其自己学自己。在学习的过程中,其实是相当于无监督的。因为其source和target图其实就是自己。那么过程中,通过多层神经网络,最终就会选择编码到一个维度的张量,那么这个张量其实就是类似与白化,pca出来的一个代表这抽象维度稀疏性的重要组成。其实目前,我们所有用的卷积神经网络在GAN中既是如上结构的en

2016-11-21 18:12:11 633

原创 Autoencorder理解(3):Traditional AE

Image以下将分为4个部分介绍:ae基本概念ae训练方式ae特征如何做分类ae变体1)先来理解autoencoder的基本概念:自动编码器其实可以理解为是一种尽可能复现输入信号的神经网络,也可以认为自动编码器是可以像pca那样找到可以表征信息的主要成分,只不过这个过程是通过学习得到的.Encoder的过程,按照理论上来说这个code其实就是包含了事物丰富的表征信息,而decoder则是负责解释和翻译这个表征.所以a/e可以分开训练.2)再来看autoencoder的两种训练方式:

2016-11-21 18:03:07 1341

转载 Autoencoder理解(2): 自动编码器的作用之稀疏编码

如果给定一个神经网络,我们假设其输出与输入是相同的,然后训练调整其参数,得到每一层中的权重。自然地,我们就得到了输入I的几种不同表示(每一层代表一种表示),这些表示就是特征。自动编码器就是一种尽可能复现输入信号的神经网络。为了实现这种复现,自动编码器就必须捕捉可以代表输入数据的最重要的因素,就像PCA那样,找到可以代表原信息的主要成分。具体过程简单的说明如下:1)给定无标签数据,用

2016-11-21 18:01:25 10223

转载 Autoencoder理解(1): 传统autoencoder

1)autoencoderautoencoder是一种无监督的学习算法,他利用反向传播算法,让目标值等于输入值。如图所示:Autoencoder尝试学习一个  的函数。也就是说autoencoder尝试逼近一个恒等函数,使得输出接近于输入 。当然为了使这个函数有意义,需要加入一些限制条件(比如说限制隐藏神经元的数目),就可以发现一些有意义的结构。Autoencoder可以学习到

2016-11-21 17:56:27 3000

转载 Tensorflow学习笔记参考—源码分析之最近算法

[python] view plain copy import numpy as np  import tensorflow as tf    # Import MINST data  import input_data  mnist = input_data.read_data_sets("/tmp/data/", one_hot=True) 

2016-11-11 00:05:11 1814 1

原创 tensorflow中python中with用法的理解

class tf.SessionA class for running TensorFlow operations.A Session object encapsulates the environment in which Operation objects are executed, and Tensor objects are evaluated. For examp

2016-11-08 14:50:09 9076

转载 TensorFlow基本架构解读

TensorFlow本片博文是参考文献[1]的阅读笔记,特此声明TensorFlow,以下简称TF,是Google去年发布的机器学习平台,发布以后由于其速度快,扩展性好,推广速度还是蛮快的。江湖上流传着Google的大战略,Android占领了移动端,TF占领神经网络提供AI服务,未来的趋势恰好是语音图像以及AI的时代,而Google IO上发布的Gbot似乎正是这一交叉领

2016-11-07 16:05:06 2692

转载 Comparative Study of Deep Learning Software Frameworks( caffe、Neon、TensorFlow、Theano、Torch 之比较)

reference:http://blog.csdn.net/u010167269/article/details/51810613Preface最近不少人问我哪个开源框架好用,我自己用过 caffe、TensorFlow、Theano、Torch,用过之后虽然有一定的感觉。但我想很多东西需要实验来具体的验证。正好我看自己的 Mendeley 中有一篇这个文章:《C

2016-11-07 15:45:28 1070

转载 Caffe、TensorFlow、MXnet三个开源库对比

referenece:https://chenrudan.github.io/blog/2015/11/18/comparethreeopenlib.html最近Google开源了他们内部使用的深度学习框架TensorFlow[1],结合之前开源的MXNet[2]和Caffe[3],对三个开源库做了一些讨论,其中只有Caffe比较仔细的看过源代码,其他的两个库仅阅读官方文档和一些研究者

2016-11-07 15:39:54 796

原创 ubuntu14.04+cuda8.0(gtx1080)下tensorflow的安装

tensorflow的安装https://www.tensorflow.org/versions/master/get_started/os_setup.html#anaconda-installation注意系统的python(sudo python pip )和anaconda的python(python的区别 python pip) 不然会装错地方两行命令行:

2016-11-07 14:29:59 1315

转载 PyCharm选择性忽略PEP8代码风格警告信息

用了几天的PyCharm,发现确实在编写Python代码上非常好用,但有一点体验不太好,就是代码编写时要按照PEP8代码风格编写,不然会有波浪线的警告信息。解决方法如下:方法一:将鼠标移到提示的地方,按alt+Enter,选择忽略(Ignore)这个错误即好。方法二打开:File - Settings…… - Editor - Inspections在pyt

2016-11-07 11:09:58 7394 1

转载 Ubuntu14.04下Pycharm字体渲染

由于在ubuntu下安装好后pycharm发现pycharm的字体实在不能看。。。故而找到了字体渲染的方法,感觉好多了0 0在ubuntu下搭建了django的开发环境,搭建过程十分简单,Pycharm的安装更简单,下载tar包解压并执行bin目录下的脚本即可,但是看着那个字体真心不爽。于是开始搜索调教。1、安装打了渲染补丁OpenJDK删除之前安装的java7,通过PPA安装

2016-11-07 11:04:33 2110

原创 torch入门笔记20:torch实现freeze layer的操作

这两天一直在尝试着在torch的框架内实现freeze layer,通过search google,从极少的文档中找到比较work的方法,故而总结在这。You can set the learning rate of certain layers to zero by overriding their updateParameters and accGradPa

2016-11-04 18:40:06 3837

原创 torch入门笔记19:关于一些torch博客的索引

1.Torch 中的引用、深拷贝 以及 getParameters 获取参数的探讨http://blog.csdn.net/u010167269/article/details/520731362.Triplet Loss、Coupled Cluster Loss 探究http://blog.csdn.net/u010167269/article/details/5202737

2016-11-04 18:34:14 862

转载 torch入门笔记18: Torch 中的引用、深拷贝 以及 getParameters 获取参数的探讨

Preface这段时间一直在苦练 Torch,我是把 Torch 当作深度学习里面的 Matlab 来用了。但最近碰到个两个坑,把我坑的蛮惨。一个是关于 Torch 中赋值引用、深拷贝的问题,另一个是关于 getParameters() 获取参数引发的问题。所以这部分就不放在之前的博文 Code Zoo - Lua & Torch 中了,单独拎出来。第一

2016-11-02 18:28:50 2480

cacert.pem

修复SSL_connect returned=1 errno=0 state=SSLv3 read server certificate B: certificate verify failed.工具

2017-05-20

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除