[tensorflow2.0]tensorflow中的子类、父类、超类

  在使用tensorflow2.0搭建自定义层时,经常会将kears.Model类和keras.layers.Layer类作为父类。通常,继承Model的子类用来定义外部模型,作为训练的对象。继承Layer类来定义内部计算块。
  super() 函数是用于调用父类(超类)的一个方法。super() 是用来解决多重继承问题的,直接用类名调用父类方法在使用单继承的时候没问题,但是如果使用多继承,会涉及到查找顺序(MRO)、重复调用(钻石继承)等种种问题。

tf.keras.layers.Layer类

  Keras 的一个中心抽象是Layer 。层封装了状态(层的“权重”)和从输入到输出的转换(“调用”,即层的前向传递)。所有的层对象都要继承 Layer 类。而 Layer 类继承自tf.Module
  

Layer 类的属性
trainable 布尔型,定义层权重是否可训练
name 层的名字。
dtype 运算结果或权重的数值类型。默认值None为float32。也可以将权重和计算值设为不同的数值类型
dynamic True:图层只能立刻地运行,并且不可用于生成静态计算图。例如,对于Tree-RNN或递归网络,或者对于使用Python控制流操纵张量的任何层
False:可以使用该层来生成静态计算图

  定义Layer类的子类,常用下列方法

  • __init __() :使用add_weight()定义自定义图层属性,并创建不依赖于输入形状的图层状态变量。
  • build(self,input_shape):此方法可用于使用add_weight()创建依赖于输入形状的权重。 __call __()将通过调用build()自动构建该层(如果尚未构建)。
  • call(self,* args,** kwargs):在确保已调用build()之后,在call中调用。 call()执行将层应用于输入张量的逻辑(应将其作为参数传递)。您可以选择在call()中使用的两个保留关键字参数是:
    • training(布尔值,无论呼叫处于推理模式还是训练模式)
    • mask(布尔张量编码输入中的掩码时间步长,用于RNN层)
  • get_config(self):返回包含用于初始化此层的配置的字典。如果键与init中的参数不同,则也重写from_config(self)。保存图层或包含该图层的模型时使用此方法。

  举例
  下面代码是一个基本示例:具有两个变量w和b的层,返回y = w. x + b。 它显示了如何实现build()和call()。 设置为图层属性的变量将作为图层的权重(在layer.weights中)进行跟踪。

class SimpleDense(Layer):

  def __init__(self, units=32):
      super(SimpleDense, self).__init__()
      self.units = units

  def build(self, input_shape):  # 定义权重W并赋值
    w_init = tf.random_normal_initializer()
    self.w = tf.Variable(
        initial_value=w_init(shape=(input_shape[-1], self.units),
                             dtype='float32'),
        trainable=True)
    b_init = tf.zeros_initializer()
    self.b = tf.Variable(
        initial_value=b_init(shape=(self.units,), dtype='float32')
  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
### 回答1: tf.compat.v1.Session() 是 tensorflow2.0 的会话。在TensorFlow 2.0,使用tf.Session()不再是必需的,因为默认情况下TensorFlow 2.0会启用即时执行模式(Eager Execution),这意味着您可以直接执行TensorFlow操作,而无需将它们包装在会话。 如果您仍然需要使用会话,可以使用tf.compat.v1.Session()方法创建会话。例如: ``` import tensorflow.compat.v1 as tf # 创建一个常量张量 a = tf.constant(5.0) b = tf.constant(6.0) # 创建会话 with tf.compat.v1.Session() as sess: # 执行操作 c = tf.multiply(a, b) # 打印结果 print(c.eval()) ``` 请注意,在TensorFlow 2.0,建议使用函数式API或子类化API来构建模型,而不是使用会话和图。 ### 回答2: tf.session() 是 TensorFlow 1.x 版本的一个 Session 对象,用于在计算图执行操作。但在 TensorFlow 2.0 版本,tf.session() 已经被移除,取而代之的是 Eager Execution 模式。Eager Execution 模式使得 TensorFlow 类似于 Python 等语言的编程方式,可以实时地(命令式地)执行操作,无需先构建计算图。Eager Execution 模式的特点如下: 1. 实时执行:像 Python 一样,代码一行一行地执行,可以立即看到结果。 2. 更加直观:类似于 NumPy 的编程方式,使得代码更加易读。 3. 不需要 Session:不需要预先定义 Session 来进行执行,直接调用函数即可。 4. 更加灵活:可以通过控制流和 Python 控制结构来编写代码,使得代码更加灵活。 在 TensorFlow 2.0 ,可以通过以下方式使用 Eager Execution 模式: ```python import tensorflow as tf tf.compat.v1.disable_eager_execution() ``` 或者更简单的方式: ```python import tensorflow.compat.v1 as tf tf.disable_eager_execution() ``` 这样,就可以写出像普通的 Python 代码一样的 TensorFlow 代码了,使得开发和调试更加方便快捷。 ### 回答3: tf.session() 是 TensorFlow 1.x 版本的重要概念。它是一个计算图的执行环境,可以在其进行计算图的计算。然而,在 TensorFlow 2.0 ,tf.session() 不再存在,被新的执行方式所替代。 在 TensorFlow 2.0 ,执行图的方式已经成为了自然而然的过程,无需使用 tf.session()。新的方式是,采用 Eager Execution 的模式进行执行。Eager Execution 是 TensorFlow 2.0 引入的一种命令式编程模式,它允许实时地运行操作,计算并输出结果。它的最大优点是,允许使用 Python 自身的控制流,如 if、for 循环等语法,这使得程序更加灵活且易于调试。同时,也减少了许多前版本版本臭名昭著的易错代码。 使用 Eager Execution 模式的代码如下: ``` import tensorflow as tf # 创建一个计算图 a = tf.constant(2) b = tf.constant(3) x = tf.add(a, b) # 显示结果 print(x.numpy()) ``` 以上代码将输出 5,即计算了 a + b 的结果。 为了兼容以前的代码,TensorFlow 2.0 仍然保留 tf.compat.v1 的 session() 函数,可以使用此函数调用 TensorFlow 1.x 版本的旧代码,但未来可能会被移除,因此,开发者应该尽可能使用新的 Eager Execution 模式编写代码。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值