1.迭代次数对精确度的影响

代码环境:win10+anaconda2020.02+TensorFlow1.14.0+Keras2.2.5

源代码如下

from __future__ import print_function
import numpy as np
from keras.callbacks import TensorBoard
from keras.models import Sequential
from keras.optimizers import Adam
from keras.layers import Dense, Dropout, Activation, Flatten
from keras.layers import Conv2D, MaxPool2D
from keras.utils import np_utils
from keras import backend as K
from keras.callbacks import ModelCheckpoint
from keras.datasets import cifar10
from keras.preprocessing.image import ImageDataGenerator
from keras.backend.tensorflow_backend import set_session
import tensorflow as tf
config = tf.ConfigProto()
config.gpu_options.allow_growth=True
set_session(tf.Session(config=config))
np.random.seed(42)
print("Initialized!")



#定义变量
batch_size = 512
nb_classes = 10
nb_epoch = 5000
img_rows, img_cols = 32, 32
nb_filters = [32, 32, 64, 64]
pool_size = (2,2)
kernel_size = (3, 3)

(X_train, y_train), (X_test, y_test) = cifar10.load_data()  #通过这一语句可以将数据自动下载到C:\Users\dell.keras\datasets里
X_train = X_train.astype("float32") / 255
X_test = X_test.astype("float32") / 255

y_train = y_train
y_test = y_test

input_shape = (img_rows, img_cols, 3)
Y_train =  np_utils.to_categorical(y_train, nb_classes)
Y_test = np_utils.to_categorical(y_test, nb_classes)


#上游部分,基于生成器的批量生成输入模块
datagen = ImageDataGenerator(
                    featurewise_center = False,
                    samplewise_center = False,
                    featurewise_std_normalization = False,
                    samplewise_std_normalization = False,
                    zca_whitening = False,
                    rotation_range = 0,
                    width_shift_range = 0.1,
                    height_shift_range = 0.1,
                    horizontal_flip = True,
                    vertical_flip = False)

datagen.fit(X_train)


#用各种零件搭建深度神经网络
model = Sequential()
model.add(Conv2D(nb_filters[0], kernel_size, padding = 'same',
                input_shape = X_train.shape[1:]))
model.add(Activation('relu'))
model.add(Conv2D(nb_filters[1], kernel_size))
model.add(Activation('relu'))
model.add(MaxPool2D(pool_size = pool_size))
model.add(Dropout(0.25))

model.add(Conv2D(nb_filters[2], kernel_size, padding = 'same'))
model.add(Activation('relu'))
model.add(Conv2D(nb_filters[3], kernel_size))
model.add(Activation('relu'))
model.add(MaxPool2D(pool_size = pool_size))
model.add(Dropout(0.25))
model.add(Flatten())
model.add(Dense(512))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(nb_classes))
model.add(Activation('softmax'))


#下游部分,使用凸优化模块训练模型

adam = Adam(lr=0.0001)
model.compile(loss = 'categorical_crossentropy',
                   optimizer=adam,
                   metrics=['accuracy'])


#最后开始训练模型,并且评估模型的准确性
#训练模型
best_model = ModelCheckpoint("cifar10_best.h5", monitor='val_loss', verbose=0, save_best_only=True)
tb = TensorBoard(log_dir="./logs")
model.fit_generator(datagen.flow(X_train, Y_train, batch_size=batch_size),
                        steps_per_epoch=X_train.shape[0] // batch_size,
                        epochs=nb_epoch, verbose=1,
                        validation_data=(X_test, Y_test), callbacks=[best_model,tb])


# 模型评分
score = model.evaluate(X_test, Y_test, verbose=0)
# 输出结果
print('Test score:', score[0])
print("Accuracy: %.2f%%" % (score[1]*100))                   
print("Compiled!")

代码来自《深度学习技术图像处理入门》第八章。
迭代次数截图

将近5000次左右的准确度情况:
将近5000次左右的准确度情况

迭代3000多次时准确度的情况
迭代3000多次时准确度的情况

在300次左右,准确率就到达82%。
在这里插入图片描述

想要说明
(1)在3000多次后,继续迭代,准确度基本上到达87%这个瓶颈了,如果要想继续提升精确度,就要从其他地方下手了。
(2)在300次后,为了提升精确度,提升迭代次数取得的效果很小。仅仅从82%提升到87%。但是迭代300次,和5000次的时间相差了很多。战神笔记本rtx2060显卡,计算300次大约75分钟左右。迭代5000次却需要21个小时左右,时间上是很不划算的。

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值