【tensorflow2.0】6.自动求导与自定义模型

1.自动求导

	 tensorflow 提供tf.GradientTape api来实现自动求导功能。只要在tf.GradientTape()上下文中执行的操作,
 都会被记录与“tape”中,然后tensorflow使用反向自动微分来计算相关操作的梯度。

这里直接上代码,根据代码讲解它的用法,今天的代码会用到很多之前学的内容,相当于和大家一起复习

x = tf.fill((2,2),3)#定义x为2*2的都为3的张量
#一开始没有这句 但是系统提示我被监视的数据类型必须是float32 ,所以用tf.cast转换一下,或者我们可以把3改为3.0
x = tf.cast(x,tf.float32) 
with tf.GradientTape() as t:#用上下文管理器
    t.watch(x) #监视变量x
    y = tf.pow(x,3)  #x的立方
dydx = t.gradient(y,x)
print(dydx)

输出结果:<tf.Tensor: id=29, shape=(2, 2), dtype=float32, numpy=
		  array([[27., 27.],
          [27., 27.]], dtype=float32)>

这里我们可以自行验证一下,x³求导是3*x²,带入x=3 ,结果为27
#也可以输出中间变量的导数
with tf.GradientTape() as t:
    t.watch(x)
    y = tf.pow(x,3)
    z = tf.square(y)
dzdy = t.gradient(z,y)
print(dzdy)

输出结果:<tf.Tensor: id=57, shape=(2, 2), dtype=float32, numpy=
		  array([[54., 54.],
          [54., 54.]], dtype=float32)>


#这是个多元函数,我们也可以查看一下z对x的导数,帮大家回忆一下链式法则(反向传播必备高数技能)
with tf.GradientTape() as t:
    t.watch(x)
    y = tf.pow(x,3)
    z = tf.square(y)
dzdx = t.gradient(z,x)
print(dzdx)

输出结果:<tf.Tensor: id=135, shape=(2, 2), dtype=float32, numpy=
		  array([[1458., 1458.],
          [1458., 1458.]], dtype=float32)>

#根据链式法则:dz/dx = dz/dy * dy/dx = 2y * 3x² = 6x的五次方 带入x=3,得到1458


#还可以求高阶导数
x = tf.Variable(3.0)
with tf.GradientTape() as t1:
    with tf.GradientTape() as t2:
        y = tf.pow(x,3)
    dy_dx = t2.gradient(y,x)
d2y_d2x = t1.gradient(dy_dx,x)
print(d2y_d2x)

2.自定义模型
老师讲解的自定义模型的步骤:
1.构建模型(神经网络的前向传播)
2.定义损失函数
3.定义优化函数
4.定义tape
5.模型得到预测值
6. 前向传播得到loss
7.反向传播
8.用优化函数将计算出来的梯度更新到变量上面去

下面我们就按照这个步骤写个关于mnist数据集的自定义模型

#导入数据集并归一化
mnist = tf.keras.datasets.mnist
(x_train,y_train),(x_test,y_test) = mnist.load_data()
x_train,x_test = x_train / 255.0,x_test / 255.0

#构建模型
class MyModel(tf.keras.Model):
    def __init__(self):
        super(MyModel,self).__init__()
        self.F1 = tf.keras.layers.Flatten()#因为mnist数据集是图片 所以这里拉伸一下
        self.D2 = tf.keras.layers.Dense(32,activation='relu')
        self.D3 = tf.keras.layers.Dense(32,activation='relu')
        self.D4 = tf.keras.layers.Dense(10,activation='softmax')
    def call(self,inputs):
        x = self.F1(inputs)
        x = self.D2(x)
        x = self.D3(x)
        x = self.D4(x)
        return x
model = MyModel()

#定义损失函数
loss_object = tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True)
#定义优化函数
optimizer = tf.keras.optimizers.SGD(learning_rate=0.01)

#设置batch_size并且打乱训练集测试集数据
batch_size = 32
train_dataset = tf.data.Dataset.from_tensor_slices((x_train, y_train))
train_dataset = train_dataset.shuffle(buffer_size=1024).batch(batch_size)

test_dataset = tf.data.Dataset.from_tensor_slices((x_test, y_test))
test_dataset = train_dataset.shuffle(buffer_size=64)
# 准备metrics函数
train_acc_metric = tf.keras.metrics.SparseCategoricalAccuracy()
test_acc_metric = tf.keras.metrics.SparseCategoricalAccuracy()

epochs = 10
for epoch in range(epochs):
    for step,(x_batch_train,y_batch_train) in enumerate(train_dataset):
        #定义tape计算梯度
        with tf.GradientTape() as tape:

            # 运行该模型的前向传播。 模型应用于其输入的操作将记录在GradientTape上。
            logits = model(x_batch_train)  # 这个minibatch的预测值

            # 计算这个minibatch的损失值
            loss_value = loss_object(y_batch_train, logits)
            
        grads = tape.gradient(loss_value, model.trainable_weights)
        optimizer.apply_gradients(zip(grads, model.trainable_weights))

        # 更新训练集的metrics
        train_acc_metric(y_batch_train, logits)
        
    train_acc = train_acc_metric.result()
    print('Training acc over epoch: %s' % (float(train_acc),))
    # 在每个epoch结束时重置训练指标
    train_acc_metric.reset_states()#!!!!!!!!!!!!!!!

    # 在每个epoch结束时运行一个验证集。
    for x_batch_test, y_batch_test in test_dataset:
        test_logits = model(x_batch_test)
        # 更新验证集merics
        test_acc_metric(y_batch_test, test_logits)
    test_acc = test_acc_metric.result()
    print('test acc: %s' % (float(test_acc),))
    test_acc_metric.reset_states()
  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 很抱歉,TensorFlow 2.0 中已经删除了 `tensorflow.contrib` 模块,因此不能直接导入 `tensorflow.contrib.learn`。不过,您可以使用 `TensorFlow 2.0` 中内置的 `tf.keras` 模块,或者使用 `TensorFlow Hub` 中的预训练模型。 ### 回答2: 要导入tensorflow.contrib.learn,您需要使用tensorflow 2.0的兼容性模块tf.compat.v1。在TensorFlow 2.0中,tf.contrib模块已被移除。然而,通过tf.compat.v1模块,您仍然可以使用一些tensorflow.contrib模块中的功能。 您可以按照以下步骤来导入tensorflow.contrib.learn: 1. 导入所需的模块: ```python import tensorflow.compat.v1 as tf from tensorflow.compat.v1 import contrib ``` 2. 启用兼容性模式: ```python tf.disable_v2_behavior() ``` 3. 现在您可以使用tf.contrib.learn及其功能: ```python contrib.learn.Estimator(...) ``` 注意:虽然这种方法使您能够导入tensorflow.contrib.learn,但由于tf.compat.v1模块是为了向后兼容而设计的,因此它可能在将来的版本中被删除。因此,最好尽量使用tensorflow 2.0的原生API。如果您使用tensorflow.contrib.learn的功能非常重要,您可以考虑使用旧版本的tensorflow(如tensorflow 1.15)来支持它。 ### 回答3: 在TensorFlow 2.0中,已经不再支持`tensorflow.contrib.learn`这个模块。`tensorflow.contrib`是一个容纳实验性、不太稳定或较少使用的功能和功能组件的命名空间,而且在TensorFlow 1.X版本中是存在的。在TensorFlow 2.0中,TensorFlow团队已经将这些组件整合到了其他模块中,或者将它们作为独立的项目进行维护。因此,如果你想在TensorFlow 2.0中使用`tensorflow.contrib.learn`,你将无法直接导入它。 如果你仍然想使用类似于`tensorflow.contrib.learn`的某些功能,可以考虑以下方法: 1. 使用TensorFlow 2.0官方文档中提供的迁移指南,查找替代`tensorflow.contrib.learn`的功能或模块。官方文档通常会提供有关如何将旧版本的代码迁移到TensorFlow 2.0的详细说明。 2. 如果你只是需要用到一些机器学习算法,你可以考虑使用`scikit-learn`这个Python库。它是一个专门用于机器学习的库,提供了丰富的算法和工具,可以与TensorFlow 2.0进行结合使用。 总之,在TensorFlow 2.0中,将不再直接支持导入`tensorflow.contrib.learn`。如果你有特定的需求,需要找到替代的方法来实现你的目标。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值