【总结】keras下,利用VGG16和resnet50预训练模型,完成多类别动物图片分类任务(中)

多类别动物图片分类任务(中)

在前半部分,我们已经完成了前两大步,并决定使用ResNet50预训练网络来训练模型。那么接下来,就让我们引入keras中已经封装好的ResNet50预训练网络参数。

  1. ResNet50的引入
    代码实现
base_model = ResNet50(weights='imagenet',
                      include_top=False,
                      input_shape=(img_width, img_height, 3))
base_model.trainable = False

x = base_model.output
x = GlobalAveragePooling2D(name='average_pool')(x)
predictions = Dense(class_num, activation='softmax')(x)

model = Model(inputs=base_model.input, outputs=predictions)
model.compile(loss='categorical_crossentropy',
              optimizer=optimizers.RMSprop(lr=1e-3),
              metrics=['acc'])

keras中已经封装好了resnet50的网络结构和预训练参数,可以通过

from keras.applications.resnet50 import ResNet50

来引入,并使用以上的代码进行实例化。
那么,让我们赶紧来跑一下吧。
最终,我们得到的验证集准确率为77.59%
这的确是非常大的提升,而且由于ResNet更加的轻量化,因此其训练速度更快。
可惜的是,依旧没有达到一期的任务期望。

  1. 一些简单的调整
    在上一篇博客中,我们讲到在初步引入预训练网络后,我们可以先调节一些参数,来尽可能地提高val_acc,经过几次简单的实验,我们最终选择学习率lr=5e-4。
optimizer=optimizers.RMSprop(lr=5e-4)

此时,我们得到的验证集准确率为79.35%

  1. 对数据进行预处理
    在上一篇博客中,我们说过数据存在两大问题:分配不均以及大小不等,其中前者可以使用过采样和欠采样得到一定程度上的解决,而后者,我们可以在让数据进入模型前,率先经过一步resize,这样可以大大的提高整个模型的训练速度。
    但是,需要注意的是,如果train和valication中的数据是经过resize再开始训练模型的话,最后的test中的数据也需要同样的处理,否则将会严重影响测试准确率。
    初次之外,我们通过观察会发现,原始数据中有近3成的图片存在边框,为了提高准确率,我们可以将其crop掉。
    代码实现
# 这个文档用来进行去除图片的边界,以及调整大小到356*356

import os
import cv2
from PIL import Image
import warnings
from PIL import ImageFile
ImageFile.LOAD_TRUNCATED_IMAGES = True
warnings.simplefilter("ignore", category=FutureWarning)
Image.MAX_IMAGE_PIXELS = None

base_path = "input"
image_path = os.path.join(base_path, 'image')
train_path = os.path.join(base_path, 'train')


def removeBorder(fileDir):
    pathDir = os.listdir(fileDir)  # 取图片的原始路径
    for imgName in pathDir:
        img = cv2.imread(fileDir + '/' + imgName)
        imgtemp = cv2.resize(img, (456, 456))
        cropped = imgtemp[50:406, 50:406]
        cv2.imwrite(fileDir + '/' + imgName, cropped)


if __name__ == '__main__':
    count = 0
    for i in range(1, 1505):
        fileDir = os.path.join(image_path, str(i))
        if os.path.isdir(fileDir):
            removeBorder(fileDir)
            count += 1
            print("processed :" + str(i) + ",and " + str(count) + "/168")

此时,我们得到的验证集准确率为83.57%,距离一期的任务期望仅一步之遥!

  1. 数据增强
    提到图片分类,我们不可避免的需要采取一定的措施来应对数据量过小的困境,数据增强就是我们经常使用的好帮手。
    代码实现

def preprocess(image):
    mean = [R_MEAN, G_MEAN, B_MEAN]
    image[..., 0] -= mean[0]
    image[..., 1] -= mean[1]
    image[..., 2] -= mean[2]
    return image


# 可以对训练集进行数据增强处理
train_datagen = ImageDataGenerator(preprocessing_function=preprocess,
                                   rotation_range=20,
                                   width_shift_range=0.1,
                                   height_shift_range=0.1,
                                   zoom_range=0.1,
                                   horizontal_flip=True,
                                   fill_mode='constant'
                                   )

# 测试集不许动,去均值中心化完了之后不许动
validation_datagen = ImageDataGenerator(preprocessing_function=preprocess)

最后,我们得到的验证集准确率为84.31%,虽然增加的不多,但是终于完成了一期的任务!

下一期,我会讲一下如何利用模型微调的方式完成二期任务。

有什么不明白的参数,可以查看keras官方中文文档
https://keras-cn.readthedocs.io/en/latest/other/application/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值