TensorFlow 2.7 正式版上线,改进 TF/Keras 调试,支持 Jax 模型到 TensorFlow Lite转换

点击上方“AI遇见机器学习”,选择“星标”公众号
重磅干货,第一时间送达

转自 | 机器之心

TensorFlow2.7 正式发布,新版本包括对 tf.keras、tf.lite 等模块的改进;tf.data 现在可以支持自动分片(auto-sharding);添加实验性 API Experiment_from_jax 以支持从 Jax 模型到 TensorFlow Lite 的转换。

「调试代码(debug)是框架用户体验的关键部分,更轻松的调试意味着更快的迭代周期。在此版本中,我们通过三个主要更改对 TF/Keras 调试体验进行了广泛的重新设计,使其更高效、更有趣……」谷歌科学家,Keras 发明者 François Chollet 说道。

11 月 5 日,TensorFlow 官方发布了 2.7 正式版,距离上次 2.6.1 的更新刚过去一个月时间。

ee8b26064ce3ab2b1efdfc0065dda555.png

在 TensorFlow 博客上,官方简述了新版本的主要升级内容:

TensorFlow 2.7 主要变化

tf.keras:

  • Model.fit()、 Model.predict() 和 Model.evaluate()方法将不再把 (batch_size, ) 的输入数据上升为 (batch_size, 1)。这使得 Model 子类能够在其 train_step()/ test_step()/ predict_step()方法中处理标量数据;

  • Model.to_yaml()和 keras.models.model_from_yaml 方法已被替换为引发 RuntimeError,因为它们可能被滥用以导致任意代码执行。建议使用 JSON 序列化而不是 YAML,或者,一个更好的替代方案,序列化到 H5;

  • LinearModel 和 WideDeepModel 被移至 tf.compat.v1.keras.models. 命名空间( tf.compat.v1.keras.models.LinearModel 和 tf.compat.v1.keras.models.WideDeepModel),其 experimental 端点 tf.keras.experimental.models.LinearModel 和 tf.keras.experimental.models.WideDeepModel 被弃用;

  • 所有 tf.keras.initializers 类的 RNG 行为改变,这一变化将使初始化行为在 v1 和 v2 之间保持一致。

tf.lite:

  • 重命名 schema 中的 SignatureDef 表,以最大化与 TF SavedModel Signature 概念的奇偶校验。

  • 弃用 Makefile 构建,Makefile 用户需要将他们的构建迁移到 CMake 或 Bazel。

  • 弃用 tflite::OpResolver::GetDelegates。TfLite 的 BuiltinOpResolver::GetDelegates 所返回的列表现在总是空的。相反,建议使用新方法 tflite::OpResolver::GetDelegateCreators。

TF Core:

  • tf.Graph.get_name_scope() 现在总是返回一个字符串。之前当在 name_scope("") 或 name_scope(None) 上下文中调用时,它返回 None, 现在它返回空字符串;

  • tensorflow/core/ir/ 包含一个新的基于 MLIR 的 Graph dialect,它与 GraphDef 同构,并将用于替换基于 GraphDef(例如 Grappler)的优化;

  • 弃用并删除了形状推理中的 attrs() 函数,现在所有的属性都应该通过名字来查询。

  • 以下 Python 符号是在 TensorFlow 的早期版本中意外添加的,现在已被删除。每个符号都有一个替换项,但请注意替换项的参数名称是不同的:

      • tf.quantize_and_dequantize_v4(在 TensorFlow 2.4 中意外引入):改用 tf.quantization.quantize_and_dequantize_v2;

      • tf.batch_mat_mul_v3(在 TensorFlow 2.6 中意外引入):改用 tf.linalg.matmul;

      • tf.sparse_segment_sum_grad(在 TensorFlow 2.6 中意外引入):改用 tf.raw_ops.SparseSegmentSumGrad。

将 tensorflow::int64 重命名为 int_64_t(前者是后者的别名)。

模块化文件系统的迁移:

对 S3 和 HDFS 文件系统的支持已经迁移到一个基于模块化文件系统的方法,现在可以在 https://github.com/tensorflow/io 中使用。用户需要安装 tensorflow-io python 包,以支持 S3 和 HDFS。

TensorFlow 2.7 主要功能和改进

对 TensorFlow 调试经验的改进:以前,TensorFlow 错误堆栈跟踪涉及许多内部帧,读出这些帧可能具有挑战性,而且对最终用户而言不可操作。从 TF 2.7 开始,TensorFlow 在它引发的大多数错误中过滤内部帧,以保持堆栈跟踪简短、可读,并专注于最终用户可操作的内容。

通过在每个异常中添加传递给该层的参数值的完整列表,提高由 Keras Layer.__call__()引发的错误消息信息量。

tf.data:tf.data 服务现在支持自动分片(auto-sharding)。用户通过 tf.data.experimental.service.ShardingPolicy 枚举指定分片策略;tf.data.experimental.service.register_dataset 现在接受可选的 compression 参数。

Keras:tf.keras.layers.Conv 现在包含一个公共的 convolution_op 方法。此方法可用于简化 Conv 子类的实现,有两种方式使用这个新方法,第一种方法如下:

class StandardizedConv2D(tf.keras.layers.Conv2D):
    def call(self, inputs):
      mean, var = tf.nn.moments(self.kernel, axes=[0, 1, 2], keepdims=True)
      return self.convolution_op(inputs, (self.kernel - mean) / tf.sqrt(var + 1e-10))

你也可以采用如下方法:

class StandardizedConv2D(tf.keras.Layer):
    def convolution_op(self, inputs, kernel):
      mean, var = tf.nn.moments(kernel, axes=[0, 1, 2], keepdims=True)
      # Author code uses std + 1e-5
      return super().convolution_op(inputs, (kernel - mean) / tf.sqrt(var + 1e-10))
  • 向 tf.keras.metrics.Metric 添加了 merge_state() 方法以用于分布式计算;

  • 向 tf.keras.layers.TextVectorization 添加了 sparse 和 ragged 的选项,以允许来自层的 SparseTensor 和 RaggedTensor 输出。

tf.lite:添加 experimental API Experiment_from_jax 以支持从 Jax 模型到 TensorFlow Lite 的转换;支持 uint32 数据类型;添加实验量化调试器 tf.lite.QuantizationDebugger。

欢迎关注我们,看通俗干货

cd09261309a4573e70b6c30df25d647d.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值