机器学习-卷积神经网络之深度残差网络CIFAR10实战(四)

本文档介绍了如何使用ResNet18模型对CIFAR10数据集进行训练和评估。首先,下载并预处理CIFAR10数据,包括缩放、类型转换和数据打乱。然后,通过Adam优化器和交叉熵损失函数进行训练,并计算损失。训练完成后,在测试集上计算准确率,评估模型性能。整个过程涉及数据预处理、模型构建、训练和精度计算。
摘要由CSDN通过智能技术生成

背景介绍:MNIST数据集识别黑白的手写数字图片,不适合彩色模型的RGB三通道图片。本次实战对CIFAR10数据集进行分析与学习。

有不懂的地方可以看代码下面的解释与讲解

目录

1.数据集的下载:

2.预处理:

3.主函数:

(1)计算损失:

(2)计算准确率:


1.数据集的下载:

(x,y), (x_test, y_test) = datasets.cifar10.load_data() # 加载数据集
y = tf.squeeze(y, axis=1) # 删除不必要的维度
y_test = tf.squeeze(y_test, axis=1) # 删除不必要的维度
print(x.shape, y.shape, x_test.shape, y_test.shape)


train_db = tf.data.Dataset.from_tensor_slices((x,y)) # 构建训练集
# 随机打散,预处理,批量化
train_db = train_db.shuffle(1000).map(preprocess).batch(512)

test_db = tf.data.Dataset.from_tensor_slices((x_test,y_test)) #构建测试集
# 随机打散,预处理,批量化
test_db = test_db.map(preprocess).batch(512)
# 采样一个样本
sample = next(iter(train_db))
print('sample:', sample[0].shape, sample[1].shape,
      tf.reduce_min(sample[0]), tf.reduce_max(sample[0]))

直接在线下载cifar10数据集,但注意cifar10数据集较大,下载较为缓慢。

删除y的列维度,仅留下一个行维度表明是什么类别的物体。后面用one_hot编码进行扩展。

对训练集和测试集进行同样的处理:1.构建数据集对象,2.进行打乱处理,主要防止机器固定记忆,可有可无,3.对其进行预处理,预处理下面有介绍,4.分批处理

2.预处理:

def preprocess(x, y):
    # 将数据映射到-1~1
    x = 2*tf.cast(x, dtype=tf.float32) / 255. - 1
    y = tf.cast(y, dtype=tf.int32) # 类型转换
    return x,y

将传入的x,y进行预处理,x数据化为-1~1,y进行类型转化为int型

3.主函数:

(1)计算损失:

# [b, 32, 32, 3] => [b, 1, 1, 512]
    model = resnet18() # ResNet18网络
    model.build(input_shape=(None, 32, 32, 3))
    model.summary() # 统计网络参数
    optimizer = optimizers.Adam(lr=1e-4) # 构建优化器

    for epoch in range(100): # 训练epoch

        for step, (x,y) in enumerate(train_db):

            with tf.GradientTape() as tape:
                # [b, 32, 32, 3] => [b, 10],前向传播
                logits = model(x)
                #print("6666")
                # [b] => [b, 10],one-hot编码
                y_onehot = tf.one_hot(y, depth=10)
                # 计算交叉熵
                loss = tf.losses.categorical_crossentropy(y_onehot, logits, from_logits=True)
                loss = tf.reduce_mean(loss)
            # 计算梯度信息
            grads = tape.gradient(loss, model.trainable_variables)
            # 更新网络参数
            optimizer.apply_gradients(zip(grads, model.trainable_variables))

            if step %50 == 0:
                print(epoch, step, 'loss:', float(loss))

本次使用的是ResNet18网络,具体网络构建详情请参照上一篇文章

机器学习-卷积神经网络之深度残差网络(三)

build()函数规定了输入的格式,即32*32像素,三通道的图片。

一共训练一百轮,每轮都需要遍历训练集中的所有数据。logits表明经过全连接层最后的10个输出。对于标签y进行one_hot编码。其中from_logits=True表明会自动调用Softmax激活函数,实际输出logits优化为概率,优化过后与编码后的y进行交叉熵的计算。

简单介绍一下交叉熵:交叉熵是损失函数的一种,主要应用于机器学习中的分类问题中,当预测的概率与实际标签相差越小得到的值就越小。

下面是对梯度进行自动更新。

(2)计算准确率:

        total_num = 0
        total_correct = 0
        for x,y in test_db:

            logits = model(x)
            prob = tf.nn.softmax(logits, axis=1)
            pred = tf.argmax(prob, axis=1)
            pred = tf.cast(pred, dtype=tf.int32)

            correct = tf.cast(tf.equal(pred, y), dtype=tf.int32)
            correct = tf.reduce_sum(correct)

            total_num += x.shape[0]
            total_correct += int(correct)

        acc = total_correct / total_num
        print(epoch, 'acc:', acc)

准确率的计算在训练集更新完参数之后在测试集计算。

将输出logits用Softmax函数激活,优化为概率。找出这一行中概率最大的那个列就是预测的物体。预测值与实际标签相比较,如果相等张量中就会有一个true,cast是强制类型转换,将布尔型转换为int型。张量中每有一个true,就变换为一个1,false变换为0。利用reduce_sum获取判断正确的个数,由total_correct汇总,最终计算出准确率。

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值