TensorFlow通过子类化创建新的层和模型

通过子类化创建新的层和模型

通过本篇文章,你可以

学会通过继承tf.keras.layers.Layer类自定义层,和继承tf.keras.Model类自定神经网络模型

通过子类化创建新的层

创建步骤

# 导入相应的工具包
import tensorflow as tf
from tensorflow import keras

# 新创建的层需要继承keras.layers.Layer类
class Linear(keras.layers.Layer):
	# 在初始化函数里面定义该层所需要的权重,权重的形状、初始化、类型、是否可训练都可以定义
	def __init__(self, units=32, input_dim=32):
		super(Linear, self).__init__()  # 继承需要添加的语句super
		# 可以自定义权重的初始化
		w_init = tf.random_normal_initializer()
		# 可以自定义权重的形状,类型,是否可训练
		self.w = tf.Variable(
			initial_value = w_init(shape=(input_dim, units), dtype='float32'), # 权重的形状,类型
			trainable = True # 是否可训练
		)
		# 可以自定义权重的初始化
		b_init = tf.zeros_initializer()
		self.b = tf.Variable(
			initial_value = b_init(shape=( units, ), dtype='float32'), # 权重的形状,类型
			trainable = True # 是否可训练
		)
	# 通过call函数来定义层的运算逻辑,即前向计算逻辑
	def call(self, inputs):
		y = tf.matmul(inputs, self.w) + self.b
		return y
		
		

创建的层的权重如何提取?

linear_layer = Linear(units=8, input_dim=4)
# 获取层所有可训练的权重,结果是个列表
trainable_weights = linear.trainable_weights
# 获取层所有不可训练的权重,结果是个列表
non_trainable_weights = linear.non_trainable_weights
# 获取层所有权重,不管是否可以训练,结果是个列表
weights = linear.weights

层实例化之后再创建权重

上面的创建层的步骤需要事先知道输入的形状,其实在大多数情况中,你可能事先不知道输入的形状大小。所以我们希望可以在实例化层之后,再创建层的权重。该怎么做呢?你可以在层的build(self, inputs_shape)方法中创建层的权重,inputs_shape这个参数表示的就是输入的形状。

修改上面的例子,变成如下

# 新创建的层需要继承keras.layers.Layer类
class Linear(keras.layers.Layer):
	# 在初始化函数里面定义该层所需要的权重,权重的形状、初始化、类型、是否可训练都可以定义
	def __init__(self, units=32):
		super(Linear, self).__init__()  # 继承需要添加的语句super
		self.units = units
    def build(self, inputs_shape):
        # 可以自定义权重的初始化
		w_init = tf.random_normal_initializer()
		# 可以自定义权重的形状,类型,是否可训练
		self.w = tf.Variable(
			initial_value = w_init(shape=(inputs_shape[-1], self.units), dtype='float32'), # 权重的形状,类型
			trainable = True # 是否可训练
		)
		# 可以自定义权重的初始化
		b_init = tf.zeros_initializer()
		self.b = tf.Variable(
			initial_value = b_init(shape=( self.units, ), dtype='float32'), # 权重的形状,类型
			trainable = True # 是否可训练
		)
	# 通过call函数来定义层的运算逻辑,即前向计算逻辑
	def call(self, inputs):
		y = tf.matmul(inputs, self.w) + self.b
		return y

这是一种比较实际的做法,因为你只需创建一次实例化层,然后每次使用该层的时候,权重都会重新创建,所以权重都不一样。这是一种比较合理的做法

层可以递归组合,即层里面可以嵌套层

如果将层实例作为另一个层的组件,则外部层会跟踪内部层创建的权重

一般在外部层的初始化方法中创建子层,并在call方法中进行逻辑计算

下面创建一个外部层,以MLP模块进行示例

class MLPBlock(keras.layers.Layer):
	# 在初始化函数里面实例化子层
	def __init__(self):
        super(MLPBlock, self).__init__() 
        # 下面每个层的权重都不一样
        self.linear1 = Linear(32)  
        self.linear2 = Linear(32)
        self.linear3 = Linear(1)
    # 在call方法中进行前向逻辑计算
    def call(self, inputs):
        x = self.linear_1(inputs)
        x = tf.nn.relu(x)
        x = self.linear_2(x)
        x = tf.nn.relu(x)
        y = self.linear_3(x)
        return y
mlp = MLPBlock()
y = mlp(tf.ones(shape=(3, 64)))  # 第一次调用层的时候才会创建权重
print("weights:", len(mlp.weights))  # 有六个权重参数
print("trainable weights:", len(mlp.trainable_weights)) # 所有权重参数都可以训练

给层添加自定义的损失张量,add_loss

在自定义层的时候,可以在call方法中添加在训练时可以用上的损失张量,该操作可以通过self.add_loss(value)来实现。这些损失,包括由任何内部层创建的损失)可通过layer.losses取回,layer.losses属性还包含任何内部层的权重创建的正则化损失。

# A layer that creates an activity regularization loss
class ActivityRegularizationLayer(keras.layers.Layer):
    def __init__(self, rate=1e-2):
        super(ActivityRegularizationLayer, self).__init__()
        self.rate = rate

    def call(self, inputs):
        self.add_loss(self.rate * tf.reduce_sum(inputs))  # 内部层自定义的损失,第一个损失
        return inputs

class OuterLayerWithKernelRegularizer(keras.layers.Layer):
    def __init__(self):
        super(OuterLayerWithKernelRegularizer, self).__init__()
        self.dense = keras.layers.Dense(
            32, kernel_regularizer=tf.keras.regularizers.l2(1e-3)  # 内部层权重定义的正则化损失,第二个损失
        )
        self.activity_reg = ActivityRegularizationLayer(1e-2)

    def call(self, inputs):
        self.add_loss(0.01*tf.reduce_sum(inputs))  # 外部层自定义的损失,第三个损失
        x = self.dense(inputs)
        return self.activity_reg(x)

layer = OuterLayerWithKernelRegularizer()
_ = layer(tf.ones((1, 1)))

print(len(layer.losses)  # 总共有三个损失值

给层添加自定义的评价指标,add_metric

本质、原理和属性跟add_loss一样,请自行验证

给call方法指定training参数

某些层,尤其是 BatchNormalization 层和 Dropout 层,在训练和推断期间具有不同的行为。对于此类层,标准做法是在 call() 方法中公开 training(布尔)参数。

通过在 call() 中公开此参数,可以启用内置的训练和评估循环(例如 fit())以在训练和推断中正确使用层。

class CustomDropout(keras.layers.Layer):
    def __init__(self, rate, **kwargs):
        super(CustomDropout, self).__init__(**kwargs)
        self.rate = rate

    def call(self, inputs, training=None):
        if training:
            return tf.nn.dropout(inputs, rate=self.rate)
        return inputs
    

通过子类化创建新的模型

什么是Model类

通常,您会使用 Layer 类来定义内部计算块,并使用 Model 类来定义外部模型,即您将训练的对象。

例如,在 ResNet50 模型中,您会有几个子类化 Layer 的 ResNet 块,以及一个包含整个 ResNet50 网络的 Model

Model 类具有与 Layer 相同的 API,但有如下区别:

- 它会公开内置训练、评估和预测循环(model.fit()model.evaluate()model.predict())。

- 它会通过 model.layers 属性公开其内部层的列表。

- 它会公开保存和序列化 API(save()save_weights()…)

实际上,Layer 类对应于我们在文献中所称的“层”(如“卷积层”或“循环层”)或“块”(如“ResNet 块”或“Inception 块”)。

同时,Model 类对应于文献中所称的“模型”(如“深度学习模型”)或“网络”(如“深度神经网络”)。

因此,如果您想知道“我应该用 Layer 类还是 Model 类?”,请问自己:我是否需要在它上面调用 fit()?我是否需要在它上面调用 save()?如果是,则使用 Model。如果不是(要么因为您的类只是更大系统中的一个块,要么因为您正在自己编写训练和保存代码),则使用 Layer

如何通过子类化来创建新的模型

# 导入相应的工具包
import tensorflow as tf
from tensorflow import keras

# 继承tf.keras.Model
class ResNet(tf.keras.Model):
    # 初始化的时候定义后续要使用的层和块
    def __init__(self, num_classes=1000)
        super(RetNet, self).__init__()
        # 下面都是实现定义好的层
        self.block_1 = ResNetBlock()
        self.block_2 = ResNetBlock()
        self.global_pool = layers.GlobalAveragePooling2D()
        self.classifier = Dense(num_classes)
	# 在call方法中定义前向传播逻辑
    def call(self, inputs):
        x = self.block_1(inputs)
        x = self.block_2(x)
        x = self.global_pool(x)
        return self.classifier(x)

通过自定义层和模型来创建模型并进行训练的完整流程

到目前为止,您已学习以下内容:

  • Layer 封装了状态(在 __init__()build() 中创建)和一些计算(在 call() 中定义)。
  • 层可以递归嵌套以创建新的更大的计算块。
  • 层可以通过 add_loss()add_metric() 创建并跟踪损失(通常是正则化损失)以及指标。
  • 您要训练的外部容器是 ModelModel 就像 Layer,但是添加了训练和序列化实用工具。

让我们将这些内容全部汇总到一个端到端示例:我们将实现一个变分自动编码器 (VAE),并用 MNIST 数字对其进行训练。

我们的 VAE 将是 Model 的一个子类,它是作为子类化 Layer 的嵌套组合层进行构建的。它将具有正则化损失(KL 散度)。

创建模型

from tensorflow.keras import layers


class Sampling(layers.Layer):
    """Uses (z_mean, z_log_var) to sample z, the vector encoding a digit."""

    def call(self, inputs):
        z_mean, z_log_var = inputs
        batch = tf.shape(z_mean)[0]
        dim = tf.shape(z_mean)[1]
        epsilon = tf.keras.backend.random_normal(shape=(batch, dim))
        return z_mean + tf.exp(0.5 * z_log_var) * epsilon


class Encoder(layers.Layer):
    """Maps MNIST digits to a triplet (z_mean, z_log_var, z)."""

    def __init__(self, latent_dim=32, intermediate_dim=64, name="encoder", **kwargs):
        super(Encoder, self).__init__(name=name, **kwargs)
        self.dense_proj = layers.Dense(intermediate_dim, activation="relu")
        self.dense_mean = layers.Dense(latent_dim)
        self.dense_log_var = layers.Dense(latent_dim)
        self.sampling = Sampling()

    def call(self, inputs):
        x = self.dense_proj(inputs)
        z_mean = self.dense_mean(x)
        z_log_var = self.dense_log_var(x)
        z = self.sampling((z_mean, z_log_var))
        return z_mean, z_log_var, z


class Decoder(layers.Layer):
    """Converts z, the encoded digit vector, back into a readable digit."""

    def __init__(self, original_dim, intermediate_dim=64, name="decoder", **kwargs):
        super(Decoder, self).__init__(name=name, **kwargs)
        self.dense_proj = layers.Dense(intermediate_dim, activation="relu")
        self.dense_output = layers.Dense(original_dim, activation="sigmoid")

    def call(self, inputs):
        x = self.dense_proj(inputs)
        return self.dense_output(x)


class VariationalAutoEncoder(keras.Model):
    """Combines the encoder and decoder into an end-to-end model for training."""

    def __init__(
        self,
        original_dim,
        intermediate_dim=64,
        latent_dim=32,
        name="autoencoder",
        **kwargs
    ):
        super(VariationalAutoEncoder, self).__init__(name=name, **kwargs)
        self.original_dim = original_dim
        self.encoder = Encoder(latent_dim=latent_dim, intermediate_dim=intermediate_dim)
        self.decoder = Decoder(original_dim, intermediate_dim=intermediate_dim)

    def call(self, inputs):
        z_mean, z_log_var, z = self.encoder(inputs)
        reconstructed = self.decoder(z)
        # Add KL divergence regularization loss.
        kl_loss = -0.5 * tf.reduce_mean(
            z_log_var - tf.square(z_mean) - tf.exp(z_log_var) + 1
        )
        self.add_loss(kl_loss)
        return reconstructed

训练模型

让我们在 MNIST 上编写一个简单的训练循环:

original_dim = 784
vae = VariationalAutoEncoder(original_dim, 64, 32)

# 定义优化器
optimizer = tf.keras.optimizers.Adam(learning_rate=1e-3) 
# 定义损失函数
mse_loss_fn = tf.keras.losses.MeanSquaredError()

# 定义平均指标
loss_metric = tf.keras.metrics.Mean()

# 加载数据
(x_train, _), _ = tf.keras.datasets.mnist.load_data()
x_train = x_train.reshape(60000, 784).astype("float32") / 255

train_dataset = tf.data.Dataset.from_tensor_slices(x_train)
train_dataset = train_dataset.shuffle(buffer_size=1024).batch(64)

# 训练两个循环
epochs = 2

# Iterate over epochs.
for epoch in range(epochs):
    print("Start of epoch %d" % (epoch,))

    # 通过批次训练模型
    for step, x_batch_train in enumerate(train_dataset):
        # 创建梯度收集器
        with tf.GradientTape() as tape:
            reconstructed = vae(x_batch_train) # 通过模型前向传播计算结果
            # 通过模型结果和输入值计算损失值
            loss = mse_loss_fn(x_batch_train, reconstructed)
            loss += sum(vae.losses)  # 自定义层的损失值添加到模型损失值里面
		
        grads = tape.gradient(loss, vae.trainable_weights)  # 通过该损失值和所有权重值计算所有权重的梯度
        optimizer.apply_gradients(zip(grads, vae.trainable_weights))  # 通过权重的梯度值更新权重值

        loss_metric(loss)  # 记录损失值和平均指标

        if step % 100 == 0:
            print("step %d: mean loss = %.4f" % (step, loss_metric.result()))
Start of epoch 0
step 0: mean loss = 0.3435
step 100: mean loss = 0.1252
step 200: mean loss = 0.0991
step 300: mean loss = 0.0891
step 400: mean loss = 0.0842
step 500: mean loss = 0.0808
step 600: mean loss = 0.0787
step 700: mean loss = 0.0771
step 800: mean loss = 0.0759
step 900: mean loss = 0.0749
Start of epoch 1
step 0: mean loss = 0.0746
step 100: mean loss = 0.0740
step 200: mean loss = 0.0735
step 300: mean loss = 0.0730
step 400: mean loss = 0.0727
step 500: mean loss = 0.0723
step 600: mean loss = 0.0720
step 700: mean loss = 0.0717
step 800: mean loss = 0.0715
step 900: mean loss = 0.0712

文章参考官方链接:https://www.tensorflow.org/guide/keras/custom_layers_and_models

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
TensorFlow 2中,如果需要多个特征输入,可以使用tf.keras中的函数式API或者API来实现。 使用函数式API,可以通过创建多个输入层,并将它们连接到模型的主要输入。例如,假设我们有两个特征输入x1和x2,并且希望将它们输入到一个具有单个输出的模型中,可以按照以下步骤操作: 1. 导入必要的库:import tensorflow as tf 2. 定义输入层:input1 = tf.keras.layers.Input(shape=(input_shape1,)) input2 = tf.keras.layers.Input(shape=(input_shape2,)) 3. 定义模型的主要输入和其他层:main_input = tf.keras.layers.concatenate([input1, input2]) # 添加其他层和输出层 4. 编译模型:model = tf.keras.models.Model(inputs=[input1, input2], outputs=output) model.compile(optimizer='adam', loss='mse', metrics=['mae']) 5. 训练模型:model.fit([x1_train, x2_train], y_train, epochs=10, batch_size=32) 使用API可以更灵活地定义模型。可以创建一个继承自tf.keras.Model的类,并在其中定义模型的输入层、其他层和前向传播函数。例如,可以按照以下步骤操作: 1. 导入必要的库:import tensorflow as tf 2. 定义自定义模型类:class MyModel(tf.keras.Model): 3. 在类的初始函数中定义输入层和其他层:def __init__(self): super(MyModel, self).__init__() self.input1 = tf.keras.layers.Input(shape=(input_shape1,)) self.input2 = tf.keras.layers.Input(shape=(input_shape2,)) # 添加其他层和输出层 4. 在类的前向传播函数中连接输入层和其他层:def call(self, inputs): x = tf.keras.layers.concatenate([self.input1, self.input2]) # 添加其他层和输出层 return output 5. 创建自定义模型的实例:model = MyModel() 6. 编译模型:model.compile(optimizer='adam', loss='mse', metrics=['mae']) 7. 训练模型:model.fit([x1_train, x2_train], y_train, epochs=10, batch_size=32) 以上是在TensorFlow 2中实现多个特征输入的基本步骤。具体的模型结构和训练流程可以根据实际需求进行调整和优

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值