TensorFlow学习系列(二):形状和动态维度

这篇教程是翻译Morgan写的TensorFlow教程,作者已经授权翻译,这是原文


目录


TensorFlow学习系列(一):初识TensorFlow

TensorFlow学习系列(二):形状和动态维度

TensorFlow学习系列(三):保存/恢复和混合多个模型

TensorFlow学习系列(四):利用神经网络实现泛逼近器(universal approximator)

TensorFlow学习系列(五):如何使用队列和多线程优化输入管道

TensorFlow学习系列(六):变量更新和控制依赖


这篇教程主要去理解一些关于Tensorflow的维度形状概念,希望在后续的教程中能帮你节约调试程序的时间 :) 。

那么什么是张量呢?

简单的说,张量就是一个拥有 n 维度的数组,并且其中的值都拥有相同的类型,比如整型,浮点型,布尔型等等。

张量可以用我们所说的形状来描述:我们用列表(或元祖)来描述我们的张量的每个维度的大小,例如:

  • 一个 n 维度的张量可以表示为:(D_0, D_1, D_2, …, D_n-1)

  • 一个 * W x H * 大小的张量(一般我们成为矩阵):(W, H)

  • 一个尺度是 W 的张量(一般我们称之为向量):(W, )

  • 一个简单的标量(或者与之等价的):()或者(1, )

注意:* D_,W,H **都是整型。

关于一维张量的一些注意:我们不可能通过观察 TF 中的矢量形状来确定矢量是行向量还是列向量。实际上这并不重要。有关更多信息,请查看这个Stackoverflow关于Numpy堆栈溢出的回答(这大致与TensorFlow表示法相同):

在 TF 中,一个张量如下表述:

my_tensor = tf.constant(0., shape=[6,3,7])
print(my_tensor) # -> Tensor("Const_1:0", shape=(6, 3, 7), dtype=float32)

我们可以发现,一个张量应该包含如下内容:

  • 一个名字,它用于键值对的存储,用于后续的检索:Const: 0

  • 一个形状描述, 描述数据的每一维度的元素个数:(6,3,7)

  • 数据类型,比如 float32

现在,我们来谈这篇文章的重点:TensorFlow中张量的两种形状!一种是静态形状,另一种是动态形状。

静态形状和动态形状

静态形状

静态维度是指当你在创建一个张量或者由操作推导出一个张量时,这个张量的维度是确定的。它是一个元祖或者列表。

TensorFlow将尽最大努力去猜测不同张量的形状(在不同操作之间),但是它不会总是能够做到这一点。特别是如果您开始用未知维度定义的占位符执行操作(例如,当你使用批操作时)。

要在代码中使用静态形状(访问/更改),你将使用Tensor本身的不同函数,并在名称中使用下划线:

注意:静态形状是非常有用的,特别是当你调试的时候,你可以使用 print 函数将张量形状进行打印,从而判断自己的设计是否正确。

动态形状

当你在运行你的图时,动态形状才是真正用到的。这种形状是一种描述原始张量在执行过程中的一种张量。

如果你定义了一个没有标明具体维度的占位符,即用None表示维度,那么当你将值输入到占位符时,这些无维度就是一个具体的值,并且任何一个依赖这个占位符的变量,都将使用这个值。

如果在代码中操作动态形状(访问/更改),你将使用主作用域中的不同函数,并且名称中没有下划线:

注意:当你要处理一些动态维度时,那么使用动态形状是非常方便的。

一个真实的使用案例:RNN

让我们需要去构建一个RNN时,我们将输入一个动态的形状,这个形状将去处理任何长度的输入数据。

在训练阶段,我们将使用动态占位符来定义批处理大小 batch_size
,然后我们使用 TensorFlow API 来创建一个 LSTM 网络。那么,你最终将得到如下这样的:

你现在需要去初始化一个状态,比如 init_state = cell.zero_state(batch_size, tf.float32) ...

但是,批处理大小 batch_size 具体应该等于多少呢?而且我们想要它是一个动态的数值,那么我们应该怎么选择呢?如果你阅读源码,那么就会发现 TensorFlow 允许很多不同的数据类型,如下:

Args:
      batch_size: int, float, or unit Tensor representing the batch size.

intfloat不能被使用,因为当你定义你的图时,你实际上是不知道 batch_size 的具体大小是多少的。这很重要。

最有意思的地方是最后一种类型: unit Tensor representing the batch size ,如果你在看原始文档,那么你会发现 unit Tensor 就是一个零维度的张量,也就是说,它就是一个标量。那么,你是怎么得到标量张量呢?

如果你在静态形状上尝试得到,你们如下:

my_tensor = tf.placeholder(tf.float32)
batch_size = my_tensor.get_shape()[0]  # Dimension(None)
print(batch_size)
# -> ?

batch_size 将返回 Dimension(None) 类型,即输出是 ? 。这个类型只能用作占位符的维度。

其实,你实际想做的是在图中使用这个动态参数 batch_size ,那么你必须使用动态形状,如下:

my_tensor = tf.placeholder(tf.float32)
batch_size = tf.shape(my_tensor)[0]  # <tf.Tensor 'strided_slice:0' shape=() dtype=int32>
print(batch_size)
# -> Tensor("strided_slice:0", shape=(), dtype=int32)

你看,此时 batch_size 在 TensorFlow 中是零维度的张量类型来描述的。

总结
  • 在调试时,使用静态形状

  • 除了调试,都是用动态形状,尤其是当你在吹未定义的维度时。

注意:在使用RNN API时,TensorFlow非常在意将初始状态设置为 zero_state ,但是为什么需要手动定义这种方式?不解。

你可能希望在运行图时,自己控制 init_state 的初始化状态。 那么你实际上可以使用 feed_dict 来为图中的任何变量提供初始变量,如下:

sess.run(encoder_final_state, feed_dict={
    my_placeholder: new_input,
    init_state: previous_encoder_final_state
})

现在,你可以动手写一下了。So easy!


References:

https://www.tensorflow.org/versions/r0.11/resources/faq.html

https://www.tensorflow.org/versions/r0.11/resources/dims_types.html


如果觉得内容有用,帮助多多分享哦 :)

长按或者扫描如下二维码,关注 “CoderPai” 微信号(coderpai)。添加底部的 coderpai 小助手,添加小助手时,请备注 “算法” 二字,小助手会拉你进算法群。如果你想进入 AI 实战群,那么请备注 “AI”,小助手会拉你进AI实战群。

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值