第T2周——实现彩色图片识别

目录

一、前言

二、环境

三、前期工作

1、导入依赖项并设置GPU

2、导入数据集

3、归一化

4、可视化图片

四、构建简单的CNN网络

五、编译并训练模型

1、设置超参数

2、编写训练函数

六、预测

参考


图像识别的原理:
图像识别是人工智能比较热门的领域,机器的图像识别原理来源于人脑。
人脑的图像识别用科学的话来解释就是人脑看到一张图片时,大脑会迅速感应到是否见过此图片或者有相似的图片,而这个"看到"和"感应到"是一个快速识别过程,此时人脑会根据存储的记忆中已经分类好的图片进行识别,搜索大脑中是否存在相同或相近的存储记忆,从而识别出该图像。

图像识别的过程:
同样地,计算机图像识别过程其实也和人脑差不多。它包含信息的获取、预处理、特征抽取和选择、分类器设计和分类决策。
预处理是指图像处理中的去噪、平滑、变换等的操作,从而加强图像的重要特征。
特征抽取和选择在图像识别过程中是非常关键的技术之一,比如我们可以用CNN网络来提取特征。
分类器设计是指通过训练而得到一种识别规则,通过此识别规则可以得到一种特征分类,使图像识别技术能够得到高识别率。常见的分类器如softmax。
图像识别的应用:
图像识别的应用也比较广泛,比如遥感领域的航空遥感和微型遥感识别系统;军事刑侦领域中的军事目标侦查,公安部门现场照片、指纹、人脸等的识别;生物医学病例研究中通过射线成像了解人体内部的疾病;农业方面的种子识别技术、食品品质检测技术;生活中的应用比如车牌识别、人脸识别、图像文本识别、移动支付等。


 

一、 前言

这里搬运一下官网的介绍。CIFAR10 数据集
是由 Hinton 的学生 Alex Krizhevsky 和 Ilya Sutskever 整理的一个用于识别普适物体的小型数据集。CIFAR-10数据集包含60000幅32x32的彩色图像,分为10个类,每类6000幅图像。训练图像50000张,测试图像10000张。
在这里插入图片描述
可以看到,数据集包含飞机,汽车,鸟,猫,鹿,狗,蛙,马,羊,卡车一共10类,这些类别之间是完全排斥的,也就是说每个类别中的子集不属于其他类别。相比MINIST
CIFAR-10 是 3 通道的彩色 RGB 图像,而 MNIST 是灰度图像
CIFAR-10 图像尺寸是32x32,MINST图像尺寸为28x28
CIFAR-10是客观世界存在的物体,物体大小、特征不同,这给模型识别带来很大困难。使用传统机器学习模型效果不尽人意。

二、环境

  • 电脑系统:Windows 10
  • 语言环境:Python 3.8.5
  • 编译器:colab在线编译
  • 深度学习环境:TensorFlow

三、 前期工作

1、导入依赖项并设置GPU

import tensorflow as tf
gpus = tf.config.list_physical_devices("GPU")

if gpus:
  gpu0 = gpus[0]
  tf.config.experimental.set_memory_growth(gpu0, True)
  tf.config.set_visible_device([gpu0], "GPU")

2、导入数据集

from tensorflow.keras import datasets,layers,models
import matplotlib.pyplot as plt
(train_images,train_labels),(test_images,test_labels)=datasets.cifar10.load_data()

3、归一化

train_images, test_images = train_images / 255.0, test_images / 255.0

train_images.shape, test_images.shape, train_lables.shape, test_lables.shape

4、可视化图片

class_name=['airplane','automobile','bird','cat','deer','dog','frog','horse','ship','truck']
plt.figure(figsize=(20,20))
for i in range(20):
    plt.subplot(5,10,i+1)
    plt.xticks([])
    plt.yticks([])
    plt.grid(False)
    plt.imshow(train_images[i],cmap=plt.cm.binary)
    plt.xlabel(class_name[train_labels[i][0]])

四、构建简单的CNN网络

#二、构建简单的CNN网络
# 创建并设置卷积神经网络
# 卷积层:通过卷积操作对输入图像进行降维和特征抽取
# 池化层:是一种非线性形式的下采样。主要用于特征降维,压缩数据和参数的数量,减小过拟合,同时提高模型的鲁棒性。
# 全连接层:在经过几个卷积和池化层之后,神经网络中的高级推理通过全连接层来完成。
model = models.Sequential([
    layers.Conv2D(32, (3, 3), activation = 'relu', input_shape= (32, 32, 3)),
    layers.MaxPooling2D((2, 2)),
    layers.Conv2D(64, (3, 3), activation = 'relu'),
    layers.MaxPooling2D((2, 2)),
    layers.Conv2D(64,(3,3),activation='relu'),
    layers.Flatten(),
    layers.Dense(64, activation = 'relu'),
    layers.Dense(10)
])

model.summary()
#以上为简单的tf八股模板,可以看B站的北大老师曹健的tensorflow笔记

 

五、编译并训练模型

1、设置超参数

#这里设置优化器,损失函数以及metrics
model.compile(
	#设置优化器为Adam优化器
    optimizer = 'adam',
    #设置损失函数为交叉熵损失函数
    loss = tf.keras.losses.SparseCategoricalCrossentropy(from_logits = True),
    metrics = ['accuracy']
)

 2、编写训练函数

history = model.fit(
    train_images,
    train_lables,
    epochs = 10,
    validation_data = (test_images, test_lables)
)

 

六、预测

plt.imshow(test_images[1])

 

#模型评估
import matplotlib.pyplot as plt
plt.plot(history.history['accuracy'],label='accuracy')
plt.plot(history.history['val_accuracy'],label='val_accuracy')
plt.xlabel('Epoch')
plt.ylabel('Accuracy')
plt.ylim([0.5,1])
plt.legend(loc="lower right")
plt.show()
test_loss,test_acc=model.evaluate(test_images,test_labels,verbose=2)


参考

彩色图片识别-第二周_彩色图像识别_ariesoary的博客-CSDN博客

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值