迁移学习与计算机视觉实践

本文使用VGG16模型进行迁移学习,基于fashion MNIST数据集进行图像分类。通过加载和预处理28×28灰度图像,将其转换为48×48彩色图像,并利用数据增强提升模型性能。实验包括加载数据、数据预处理、训练模型、保存模型和训练过程可视化。经过5个epoch的训练,模型准确率可达0.90,表明迁移学习在图像分类任务上的优势。
摘要由CSDN通过智能技术生成

前情提要

前五期我们提到了

迁移学习与计算机视觉

迁移学习与图像分类

迁移学习与目标检测(faster RCNN)

迁移学习与语义分割(Seg Net)

迁移学习与实例分割(ResNeXt)

接下来为大家讲解

迁移学习与计算机视觉实践

本节开始,我们将使用VGG16模型做一些小实验,进而巩固我们对迁移学习与计算机视觉理论知识的理解。与第四章一样,我们同样是基于fashion MNIST数据的图像分类去做实验。

在2017年8月份,德国研究机构Zalando Research在GitHub上推出了一个全新的数据集,其中训练集包含60000个样例,测试集包含10000个样例,分为10类,每一类的样本训练样本数量和测试样本数量相同。样本都来自日常穿着的衣裤鞋包,每个都是28×28的灰度图像,其中总共有10类标签,每张图像都有各自的标签。

值得注意的是,因为VGG16只能识别尺寸大于48×48的彩色图片,而我们的数据集是28×28的灰色图片,因此我们在将数据集灌入迁移学习模型前,要对图片数据集进行适当地转换,也就是比第四章中传统CNN神经网络的图像预处理多了一步:将图片转换成48×48大小的彩色图片。

 7.3.1 实验环境


(1) Anaconda Python 3.7与Jupyter Notebook

(2) Keras

(3) fashion MNIST数据数据集

7.3.2 实验流程

(1) 加载图像数据

(2) 图像数据预处理  

(3) 训练模型

(4) 保存模型与模型可视化

(5) 训练过程可视化

7.3.3 代码

1.  # chapter7/7_3_Transfer_learning_cnn_image.ipynb

2.  from tensorflow.python.keras.utils import get_file  

3.  import gzip  

4.  import numpy as np  

5.  import keras  

6.  from keras.datasets import cifar10  

7.  from keras.preprocessing.image import ImageDataGenerator  

8.  from keras

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值