看到那个Edward 了吗?对!其实它是个Python库

今天,谷歌联合Columbia University、Adobe(就是你们知道的那个Adobe)提出深度概率编程语言Edward,我就其发布Edward的专业论文,给大家介绍一下,这个秒天秒地秒空气的牛逼哄哄的新语言(框架)。

为什么开发Edward?

因为现在的概率编程语言啊,

Too Young!Too Simple!

原文是这样的:

Rather, most existing probabilistic programming languages treat the inference engine as a black box,abstracted away from the model. These cannot capture the recent advances in probabilistic inference that reuse the model’s representation.

就是因为如今的概率编程语言,把引擎设置为一个黑箱。

其实这是把难度降低了,毕竟我们绝大多数用Keras这类框架的人,根本不去在意这个问题。而我们这些玩弄Keras的怪蜀黍们的应对的策略也很奔放——直接把Keras的源代码撬开改!

某科技媒体上的文章,说Edward是深度概率编程语言,然而,官网是这样的:

640?wx_fmt=jpeg&tp=webp&wxfrom=5&wx_lazy

也就是说...这...是Python库啊。。。

Python库啊。。。

至少现在看,确实是Python库的吧。。。

文档中提到,支持的模型:

8481c8f592b7f349aa84a1de5c171db681516edfDirected graphical models
8481c8f592b7f349aa84a1de5c171db681516edfNeural networks (via libraries such as Keras and TensorFlow Slim)
8481c8f592b7f349aa84a1de5c171db681516edfConditionally specified undirected models
8481c8f592b7f349aa84a1de5c171db681516edfBayesian nonparametrics and probabilistic programs

也就是支持

8481c8f592b7f349aa84a1de5c171db681516edf定向图模型
8481c8f592b7f349aa84a1de5c171db681516edf神经网络(通过 Keras 和 TensorFlow Slim 等库)
8481c8f592b7f349aa84a1de5c171db681516edf条件特定的无向模型
8481c8f592b7f349aa84a1de5c171db681516edf贝叶斯非参数和概率程序

其实我还是觉得,就神经网络而言,Keras的易用性真的是太棒了!

在这里提一下,想上Edward之前先看看自己的Tensorflow的版本,Tensorflow作为一个日新月异的深度学习框架,肯定有不少人表示——给老子上最新的!

所以。。。你们就要GG了。。。

我不是针对你,我是说所有想玩Edward的同时还追求Tensorflow的,都要把版本弄回来。。。

在arXiv的论文中提到:

640?wx_fmt=jpeg&tp=webp&wxfrom=5&wx_lazy

他的效率高很多,举个例子就是:他做蒙特卡罗哈密顿方法,效率比别人高35倍

在Edward里,随机变量的地位很高,是类对象。

先科普一个常识,张量,就是Tensor,就是Tensorflow的那个Tensor,也就是多维数组。

另外,每个随机变量640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=与张量640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=相关联,其表示单个样本640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=方法,例如以计算对数密度和该关联将随机变量嵌入到计算图形中,其中节点表示张量和边际上的操作,表示张量在它们之间通信的符号框架。

而这种设计有助于在计算图框架中开发概率程序,也是Edward堪称“语言”的地方吧。所有的计算都可以在图表上表示。这使得很容易组成具有复杂确定性结构的随机变量,比如说深层神经网络,一组不同的数学运算以及在同一框架上构建的第三方库。噢对了,这种的设计还能使随机变量的组合能够捕获复杂的随机结构。

举个例子:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

随机变量640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=是50维的,由随机张量640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=参数化。 获取对象运行图形:它从生成过程模拟并输出50个元素的二进制向量。

现在来实操一番:

640?wx_fmt=jpeg&tp=webp&wxfrom=5&wx_lazy

当然了,安装的方法也是熟悉的味道。。

pip install edward

首先,定一个小目标,比如弄50个小数据

我们把y设置为一个在x附近有一丢丢摆动的正弦值。

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

定义一个两层贝叶斯网络,用tanh来定义非线性的神经网络

可能画出来会比较直观一点

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

是吧,跟段子一般的简单。接下来我们从数据反怼出模型,用边分推理对权重和偏差指定正态近似。

在这里科普一下什么是变分推理:

变分推断是一类用于贝叶斯估计和机器学习领域中近似计算复杂(intractable)积分的技术,变分推断限制近似分布的类型,从而得到一种局部的最优,但具有确定解的近似后验分布。需要提一下的是,虽然都是通过抽取大量的样本估计真实的后验分布,但是变分推断和猛上之后的蒙特卡洛方法是有大大的区别的。

在Edward中的变分推理的实现方法是酱紫的:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

既然提到了Monte Carlo嘛。。。

在Edward中的Monte Carlo的实现是这样的。。。

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

其中,T为样本数量。

好的,那么我们就来做一个:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

定义tf.Variable允许变分因子的参数变化。

它们都被初始化为0.用softplus transformation,使标准偏差参数被调整为大于零。

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

Kullback-Leibler散度运行变分推理,以推断模型的给定数据的潜在变量。

科普时间到:

Kullback-Leibler散度也称为辨别信息,信息散度,信息增益,相对熵,KLIC,KL散度(我也不知道为什么名字那么的长啊长)。

它是在两个概率分布P和Q之间的差异的测量。在P和Q中不对称。P通常表示数据的“真实”分布,观察或精确计算的理论分布,而Q通常表示理论、模型、描述或近似。

我们就做个。。。1000次迭代吧?

最后,评价模型拟合水平。

贝叶斯神经网络定义了神经网络上的分布,因此我们可以执行图形检查,将模型打印出来,看看是不是和我们一开始定义的模型,也就是一个在余弦曲线上摆动有一定的摆动的图样。

显然,该模型真的已捕获观察域中x和y之间的余弦关系。

即,模型拟合通过。

原则上,就这么简单的通过了,但是Edward在安装的时候确实废了我不少心血,同时在调整模型的时候屡次GG,觉得。。。虽然它是个很棒的工具,从效率上来看(至少官方公布的效率,绝对是扛把子级别的)


原文发布时间为:2017-01-23 

本文作者:那只猫

本文来自云栖社区合作伙伴“Python中文社区”,了解相关信息可以关注“Python中文社区”微信公众号

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值