5.Keras实现CNN分类
这里我们应用另外一个内置数据集Cifar-10,该数据库具有50,000个32*32的彩色图片作为训练集,10,000个图片作为测试集。图片一共有10个类别。
按照上面三模块代码
第一模块准备数据集
1导入数据集
from keras.datasets import cifar10
(x_train,y_train),(x_test,y_test) = cifar10.load_data()
#总共110M左右下载有点慢
2引入keras,网络层设置
from keras.utils import np_utils
from keras import Sequential
from keras.layers import Conv2D,Activation,Flatten,Dense,Dropout,MaxPool2D
3对数据进行处理
#转化为one-hot
y_train = np_utils.to_categorical(y_train,nb_classes)
y_test = np_utils.to_categorical(y_test,nb_classes)
x_train = x_train.astype("float32")
x_test = x_test.astype("float32")
#幅度缩放取值0-255
x_train /=255
x_test /=255
4数据增强
#为了提高模型的泛化能力导入数据增强模块,在keras中使用ImageDataGenerator完成
from keras.preprocessing.image import ImageDataGenerator
generated_images = ImageDataGenerator(
featurewise_center=True,
samplewise_center=False,
featurewise_std_normalization=True,
samplewise_std_normalization=False,
zca_whitening=False,
rotation_range=0,
width_shift_range=0.2,
height_shift_range=0.2,
horizontal_flip=True,
vertical_flip=False
)
#上面设置参数
generated_images.fit(x_train)
gen = generated_images.flow(x_train,y_train,batch_size=500,shuffle=True)
x_batch,y_batch = next(gen)
第二模块模型构建
#设置基本参数
nb_epoch = 10 #迭代轮次
batch_size = 128#一个batch的数量
nb_filters = 32#卷积层filter个数shenjinyuan
nb_pool = 2#池化层的kernel size
nb_conv =3
model = Sequential()
model.add(Conv2D(nb_filters,(nb_conv,nb_conv),padding='same',input_shape=x_batch.shape[1:]))
#卷积层
model.add(Activation('relu'))
#激活层
model.add(MaxPool2D(2,2))
#池化层
model.add(Conv2D(nb_filters,(nb_conv,nb_conv)))
model.add(Activation('relu'))
model.add(MaxPool2D(2,2))
model.add(Conv2D(nb_filters,(nb_conv,nb_conv)))
model.add(Activation('relu'))
model.add(MaxPool2D(2,2))
model.add(Flatten())
#Flatten展平
model.add(Dense(128))
#全连接
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(nb_classes))
model.add(Activation('softmax'))
model.summary()
#查看网络结构
model.compile(loss='categorical_crossentropy',optimizer='adam',metrics=['accuracy'])
#编译模型
第三模块训练与测试
#训练评估
model.fit_generator(gen,epochs=20)
#迭代20次效果如下--计算量太大就不花太多时间跑了,效果不怎么好