比赛提供一个GPU为tesla P4,计算性能感觉不是特别强,但是比自己电脑强太多了,可能只有一个GPU的原因,在运行cifar10时每个epoch需要1分钟多两分钟,在运行resnet时100epoch,一般跑一晚上才能跑完。
下面是我对cifar10的一些理解:
1.batch_size 为每次GPU处理数据集的数量,这里设为100,到4,500时就train不好了,一共20个类,num_classes = 20,epoch为20,表示一共对所有数据集进行20次遍历,data_dugmentation是数据扩充。
batch_size = 100
num_classes = 20
epochs = 20
data_augmentation = False
num_predictions = 20
save_dir = os.path.join(os.getcwd(), 'saved_models')
model_name = 'keras_cifar10_trained_model.h5'
img_row = 224
img_col = 224
2.load读取数据,下面一定要进行reshape,一定要,这是对灰度图像的处理,灰度图像numpy只有两个维度,reshape为三个维度,下面是对train和test赋值,将train变为float然后/255,这是为了让所有值在0-1之间,图像归一化把。
# The data, split between train and test sets:
x_train =