- 🍨 本文为🔗365天深度学习训练营 中的学习记录博客
- 🍖 原作者:K同学啊
目录
图像识别的原理:
图像识别是人工智能比较热门的领域,机器的图像识别原理来源于人脑。
人脑的图像识别用科学的话来解释就是人脑看到一张图片时,大脑会迅速感应到是否见过此图片或者有相似的图片,而这个"看到"和"感应到"是一个快速识别过程,此时人脑会根据存储的记忆中已经分类好的图片进行识别,搜索大脑中是否存在相同或相近的存储记忆,从而识别出该图像。
图像识别的过程:
同样地,计算机图像识别过程其实也和人脑差不多。它包含信息的获取、预处理、特征抽取和选择、分类器设计和分类决策。
预处理是指图像处理中的去噪、平滑、变换等的操作,从而加强图像的重要特征。
特征抽取和选择在图像识别过程中是非常关键的技术之一,比如我们可以用CNN网络来提取特征。
分类器设计是指通过训练而得到一种识别规则,通过此识别规则可以得到一种特征分类,使图像识别技术能够得到高识别率。常见的分类器如softmax。图像识别的应用:
图像识别的应用也比较广泛,比如遥感领域的航空遥感和微型遥感识别系统;军事刑侦领域中的军事目标侦查,公安部门现场照片、指纹、人脸等的识别;生物医学病例研究中通过射线成像了解人体内部的疾病;农业方面的种子识别技术、食品品质检测技术;生活中的应用比如车牌识别、人脸识别、图像文本识别、移动支付等。
一、 前言
这里搬运一下官网的介绍。CIFAR10 数据集
是由 Hinton 的学生 Alex Krizhevsky 和 Ilya Sutskever 整理的一个用于识别普适物体的小型数据集。CIFAR-10数据集包含60000幅32x32的彩色图像,分为10个类,每类6000幅图像。训练图像50000张,测试图像10000张。
可以看到,数据集包含飞机,汽车,鸟,猫,鹿,狗,蛙,马,羊,卡车一共10类,这些类别之间是完全排斥的,也就是说每个类别中的子集不属于其他类别。相比MINIST:
CIFAR-10 是 3 通道的彩色 RGB 图像,而 MNIST 是灰度图像
CIFAR-10 图像尺寸是32x32,MINST图像尺寸为28x28
CIFAR-10是客观世界存在的物体,物体大小、特征不同,这给模型识别带来很大困难。使用传统机器学习模型效果不尽人意。
二、环境
- 电脑系统:Windows 10
- 语言环境:Python 3.8.5
- 编译器:colab在线编译
- 深度学习环境:TensorFlow
三、 前期工作
1、导入依赖项并设置GPU
import tensorflow as tf
gpus = tf.config.list_physical_devices("GPU")
if gpus:
gpu0 = gpus[0]
tf.config.experimental.set_memory_growth(gpu0, True)
tf.config.set_visible_device([gpu0], "GPU")
2、导入数据集
from tensorflow.keras import datasets,layers,models
import matplotlib.pyplot as plt
(train_images,train_labels),(test_images,test_labels)=datasets.cifar10.load_data()
3、归一化
train_images, test_images = train_images / 255.0, test_images / 255.0
train_images.shape, test_images.shape, train_lables.shape, test_lables.shape
4、可视化图片
class_name=['airplane','automobile','bird','cat','deer','dog','frog','horse','ship','truck']
plt.figure(figsize=(20,20))
for i in range(20):
plt.subplot(5,10,i+1)
plt.xticks([])
plt.yticks([])
plt.grid(False)
plt.imshow(train_images[i],cmap=plt.cm.binary)
plt.xlabel(class_name[train_labels[i][0]])
四、构建简单的CNN网络
#二、构建简单的CNN网络
# 创建并设置卷积神经网络
# 卷积层:通过卷积操作对输入图像进行降维和特征抽取
# 池化层:是一种非线性形式的下采样。主要用于特征降维,压缩数据和参数的数量,减小过拟合,同时提高模型的鲁棒性。
# 全连接层:在经过几个卷积和池化层之后,神经网络中的高级推理通过全连接层来完成。
model = models.Sequential([
layers.Conv2D(32, (3, 3), activation = 'relu', input_shape= (32, 32, 3)),
layers.MaxPooling2D((2, 2)),
layers.Conv2D(64, (3, 3), activation = 'relu'),
layers.MaxPooling2D((2, 2)),
layers.Conv2D(64,(3,3),activation='relu'),
layers.Flatten(),
layers.Dense(64, activation = 'relu'),
layers.Dense(10)
])
model.summary()
#以上为简单的tf八股模板,可以看B站的北大老师曹健的tensorflow笔记
五、编译并训练模型
1、设置超参数
#这里设置优化器,损失函数以及metrics
model.compile(
#设置优化器为Adam优化器
optimizer = 'adam',
#设置损失函数为交叉熵损失函数
loss = tf.keras.losses.SparseCategoricalCrossentropy(from_logits = True),
metrics = ['accuracy']
)
2、编写训练函数
history = model.fit(
train_images,
train_lables,
epochs = 10,
validation_data = (test_images, test_lables)
)
六、预测
plt.imshow(test_images[1])
#模型评估
import matplotlib.pyplot as plt
plt.plot(history.history['accuracy'],label='accuracy')
plt.plot(history.history['val_accuracy'],label='val_accuracy')
plt.xlabel('Epoch')
plt.ylabel('Accuracy')
plt.ylim([0.5,1])
plt.legend(loc="lower right")
plt.show()
test_loss,test_acc=model.evaluate(test_images,test_labels,verbose=2)
参考