Keras中存储模型主要有两种方式:
1.只存储模型中的权重参数:
#save
model.save_weights('my_model_weights.h5')
#load
model.load_weights('my_model_weights.h5')
2.存储整个模型包括模型图的结构以及权重参数:
#save
model.save('my_model.h5')
#load
model = load_model('my_model.h5')
以上两步在存储和恢复通过系统模块构建的模型时就已经足够了,但是load_model()函数如果涉及到自定义的模块的时候还需要在加载模型的时候进行额外的声明。
以下举例进行说明:
比如训练模型的时候用到了自定义的模块AttentionLayer,那么在加载模型的时候需要在custom_objects的参数中声明对应的字典项,否则将会报模块未定义的错误。
model = load_model('./model1/GRUAttention( 0.8574).h5', custom_objects={'AttentionLayer': AttentionLayer})
在训练的过程中有时候也会用到自定义的损失函数,这时候如果你加载模型知识为了进行预测不再其基础上再进行训练,那么加载模型的时候就没有必要在custom_objects参数中声明对应的字典项,只需要将compile参数设为False即可:
model = load_model('./model1/GRUAttention(0.8574).h5', compile=False})
如果此时你好需要在加载后的模型上继续进行训练,那么声明损失函数对应的字典项就是必须的:
model = load_model('./model1/GRUAttention(0.8574).h5', compile=True, custom_objects={'focal_loss_fixed':focal_loss})