关于tensorflow的图计算的感性认识的栗子

由于也是刚用TensorFlow不久,很多概念的东西都不太熟悉,古人云绝知此事要躬行,正好碰到个很有趣的栗子,能很好的说明TensorFlow的符号式的编程方式和我们熟悉的命令行式的编程方式的不同。

栗子

import tensorflow as tf
result=tf.truncated_normal(shape=[5,5],mean=0,stddev=1)
relu=tf.nn.relu(result)
with tf.Session() as sess:
    print(sess.run([result]))
    print(sess.run([relu]))

在这个栗子中,按一般的熟悉的命令行式的编程逻辑,第一个print得到的应该是一个shape为5*5的tensor,而第二个print得到的是这个tensor中个元素做max(a,0)之后的结果,可是结果竟然是这样的


显然这个和前面分析的不符。我分析是这样的(如果错了,欢迎板砖)就是TensorFlow不是一般像C/C++的之类的编程方式,TensorFlow先将计算图设计好,然后每个sess.run()就触发计算图里的相关数据的流动,比如在上面例子中的计算图是 

tf.truncated_normal()→→tf.nn.relu()→→

在第二个sess.run([relu])中,为了计算relu,就必须先计算result,于是触发了数据流从节点tf.truncated_normal()流动出来,进入后面的节点。而第一个sess.run([result])也触发了一次tf.truncated_normal()参数数据流,这两次数据流其实是不一样的,也就是说tf.truncated_normal()触发了2次,产生了2个完全不同的tensor。所以也就导致了上面的结果和预想的不一样。那怎么才能得到我们期望的结果呢?可以做如下改动

import tensorflow as tf
result=tf.truncated_normal(shape=[2,2],mean=0,stddev=1)
relu=tf.nn.relu(result)
with tf.Session() as sess:
    print(sess.run([result,relu]))

结果为


这个就和期待的结果一致了,我想应该是用同个sess.run()触发了计算图,所以用的是同个数据流,自然得到想要的结果了吧(猜测的,还请大神多多指点)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值