迁移学习之_猫狗大战

1. 迁移学习

 迁移学习(transfer learning)是指将已经学习的知识应用到其它领域,在图像识别问题中,是将训练好的模型通过简单调整来解决新的问题。从图像中提取特征,不一定需要算力强大的GPU,训练上百层的神经网络。

 卷积神经网络中卷积层和池化层可以抽取图片的几何特征,比如浅层的卷积用于抽取出一些直线,角点等简单的抽象信息,深层的卷积层用于抽取人脸等复杂的抽象信息,最后的全连接层是对图片分类的处理。因此,我们可以使用网络的前N-1层提取特征。

 例如,利用在ImageNet数据集上训练好的 ResNet50 模型来解决一个自定义的图像分类问题:保留训练好的 ResNet50 模型中卷积层的参数,只去掉最后一个全连接层,将新图像输入训练好的神经网络,利用前N-1层的输出作为图片的特征,将 ResNet50 模型作为图片特征提取器,提取得到的特征向量作为输入训练新的单层全连接网络来处理新的分类问题,或者将这些特征代入SVM,LR等其它机器学习模型进行训练和预测。

 在数据量足够的情况下,迁移学习的效果往往不如完全重新训练,但是迁移学习所需要的训练时间和训练样本要远远小于训练完整的模型。大多数情况下,更加实用。

2. 比赛介绍

 猫狗大战是2013年Kaggle上的比赛,它使用25000张(约543M)猫狗图片作为训练集,12500张(约271M)图片作为测试集,数据都是分辨率400x400左右的小图片,目标是识别测试集中的图片是猫还是狗。赛题网址:https://www.kaggle.com/c/dogs-vs-cats

 对于图像识别,在数据量足量大的情况下,一般使用深度学习中的卷积神经网络(Convolutional Neural Networks, CNN),而本篇将从迁移学习的角度,看看如何应用现有的深度学习模型,从图片中提取特征,供分类器使用。使用此方法,即无需大量学习和训练模型的时间成本,又能解决图片识别相关的大多数问题。

3. 代码分析

(1) 数据及代码位置

 数据及代码位置如下:cat_vs_dog.ipynb 中存放了所有代码, train目录中存放所有训练数据,注意将猫和狗的图片分开目录存放,test目录存放测试数据。

├── cat_vs_dog.ipynb
├── README.md
├── test
│ └── test1
│ ├── 1.jpg
│ ├── 2.jpg
│ └── …
└── train
  ├── cat
  ├── cat.1.jpg
  ├── cat.2.jpg
  └── …
  └── dog ├── dog.1.jpg
  ├── dog.2.jpg
  └── …

(2) 提取特征

 本例中使用了InceptionV3,Xception,ResNet50三种模型,分别提取图片特征,H5是一种文件存储格式,使用库h5py库存取。

from keras.models import *
from keras.layers import *
from keras.applications import *
from keras.preprocessing.image import *
import h5py
import warnings
warnings.filterwarnings('ignore')

def get_features(MODEL, width, height, lambda_func=None):
 input_tensor = Input((height, width, 3))
 x = input_tensor
 if lambda_func:

 x = Lambda(lambda_func)(x)
 base_model = MODEL(input_tensor=x, weights='imagenet', include_top=False)
 model = Model(base_model.input, GlobalAveragePooling2D()(base_model.output))
 gen = ImageDataGenerator()

 # 注意 train 和 test 是图片存储路径
 train_generator = gen.flow_from_directory("train", (width, height), shuffle=False,
 batch_size=16)
 test_generator = gen.flow_from_directory("test", (width, height), shuffle=False,
 batch_size=16, class_mode=None)
 train = model.predict_generator(train_generator, train_generator.nb_sample)
 test = model.predict_generator(test_generator, test_generator.nb_sample)
 with h5py.File("data_%s.h5"%MODEL.func_name) as h:
 h.create_dataset("train", data=train)
 h.create_dataset("test", data=test)
 h.create_dataset("label", data=train_generator.classes)

get_features(ResNet50, 224, 224)
get_features(InceptionV3, 299, 299, inception_v3.preprocess_input)
get_features(Xception, 299, 299, xception.preprocess_input)

(3) 训练模型和预测

 特征提取完成后,训练了简单的全连接神经网络,迭代次数为8次,并对测试集test进行预测,预测结果保存在y_pred之中,训练过程保存在history之后,此后分析其迭代效果。

import h5py
import numpy as np
from sklearn.utils import shuffle
from keras.models import *
from keras.layers import *

np.random.seed(12345678)
X_train = []
X_test = []

for filename in ["data_ResNet50.h5", "data_Xception.h5", "data_InceptionV3.h5"]:
 with h5py.File(filename, 'r') as h:
 X_train.append(np.array(h['train']))
 X_test.append(np.array(h['test']))
 y_train = np.array(h['label'])

X_train = np.concatenate(X_train, axis=1)
X_test = np.concatenate(X_test, axis=1)
X_train, y_train = shuffle(X_train, y_train)
input_tensor = Input(X_train.shape[1:])
x = Dropout(0.5)(input_tensor)
x = Dense(1, activation='sigmoid')(x)
model = Model(input_tensor, x)
model.compile(optimizer='adadelta',
 loss='binary_crossentropy',
 metrics=['accuracy'])

history = model.fit(X_train, y_train, batch_size=128, nb_epoch=8, validation_split=0.2)
y_pred = model.predict(X_test, verbose=1)
y_pred = y_pred.clip(min=0.005, max=0.995)

(4) 训练结果分析

import matplotlib.pyplot as plt
%matplotlib inline

def plot_training(history):
 acc = history.history['acc']
 val_acc = history.history['val_acc']
 epochs = range(len(acc))
 plt.plot(epochs, acc, 'b')
 plt.plot(epochs, val_acc, 'r')
 plt.legend(["acc", "val_acc"], loc='best')
 plt.title('Training and validation accuracy')
 plt.show()

 loss = history.history['loss']
 val_loss = history.history['val_loss']
 plt.plot(epochs, loss, 'b')
 plt.plot(epochs, val_loss, 'r')

 plt.legend(["loss", "val_loss"], loc='best')
 plt.title('Training and validation loss')
 plt.show()

plot_training(history)

 使用matplotlib库,分别对8次迭代的准确率作图比较,从结果可以看出迭代两次之后,精确率就稳定下来。本例中使用了全部图片25000张训练模型,正确率相对较高。

(5) 代码下载

 本例中的代码以及少量图片可从git下载:https://github.com/xieyan0811/cat_vs_dog 由于整体图片有几百M,占空间大,特征提取时间长,所以只上传了几百张图片,如果想训练出上图展示的效果,请下载kaggle赛题中的所有数据,替换train和test目录即可,注意,需要把猫和猫的图片存放不同目录下。

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值