- 博客(6)
- 资源 (2)
- 收藏
- 关注
原创 深度学习(五十二)变分贝叶斯自编码器(下)
在生成模型中,假设样本数据X={xi}是根据某个随机过程进行采样得到,每个样本根据某个未知的概率分布函数相互独立采样得到,并且这个未知的概率分布取决于连续的潜变量Z。数据集采样过程分成两个步骤:(1)从先验分布函数采样样本zi;(2)根据条件概率分布函数,进而采样得到样本xi。即数据的生成过程如下:、表示是一个参数化的概率分布函数。然而真正的参数θ、Z都是未知的,而且这些分布函数对于真实数据分布都是相当复杂的。
2017-02-25 15:33:07 6048 1
原创 深度学习(五十三)对抗网络
再举个实际一点的例子:假设有A、B两个人,A是银行的职员,其工作职责是判别真假人民币,防止假钞泛滥;B是专门造假钞的,他的职责是要尽量的造出更加逼真的人民币,来谋取利益。A、B为了混口饭吃,将在不断的相互对抗中,提高自己的专业技能;比如A的辨真伪能力提高了,那么B就需要再次提高自己的造假钞能力,来骗过A,否则
2017-02-25 15:28:51 3806
原创 深度学习(五十一)变分贝叶斯自编码器(上)
度生成模型比较常碰到的有三个:对抗网络、变分自编码、DBN。学习深度生成模型,涉及到比较多的贝叶斯学派观点,所以公式难免一大堆,贝叶斯观点:对于每个观测数据x,是从分布函数x~p(x)中采样得到。比如对于手写数字数据,我们可以把它看成是从某个28*28维度的某个未知分布函数中,进行随机采样得到的样本。这篇博文我们先讲解深度生成模型中的经典算法:变分自编码器,主要参考文献:《Auto-Encoding Variational Bayes》。
2017-02-23 19:15:02 6765 3
原创 深度学习(五十)基于条件对抗网络的图片翻译
在图像处理领域,许多问题都涉及到图片到图片的转换问题,就像语言翻译一样,从英语到法语。类似于语言自动翻译一般,paper定义:图片的一种表示到另一种表示转换问题,命名为图片翻译问题。语言翻译之所以难,其中的一个问题在于两种语言之间不存在文字一一对应;同样的图片翻译问题,也可以是不一一对应的,比如一张图片可以表示成:边缘图片、语义标签、深度景深图片等;我们的目标是要找到一种通用的框架,用于各种图片翻译问题。
2017-02-21 19:23:20 3067
原创 深度学习(四十九)Tensorflow提高代码效率笔记
最近在自己从头到尾利用tensorflow写深度学习相关算法的时候,发现自己写的出来的模型,训练速度很慢,比caffe慢了n多倍,所以就查找了一下tensorflow官网,编写代码、提高效率,需要注意的细节。
2017-02-21 19:11:05 5017 1
原创 深度学习(四十八)InfoGAN学习笔记
本文是本人阅读《InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets》的学习笔记,文献目标其实是加入一个新的潜变量c,使得c与生成的样本具有较高的互信息。这样c用于表示数据某个方面的语义信息,z用于表示样本x中与c无关的其它信息。其实网络在最后实现的时候,infoGan可以看成三个网络组成:(1)生成网络x=G(c,z);(2)判别真伪网络y1=D1(x);(3
2017-02-18 11:10:40 15820 3
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人