使用Keras的记录

我一般常用的是PyTorch,但是也会用Keras。这里记录一下Keras中的一些使用细节。

1.model对象有个fit方法,fit方法里的参数是这样的:

fit(x=None, y=None, batch_size=None, epochs=1, verbose=1, callbacks=None, 
validation_split=0.0, validation_data=None, shuffle=True, class_weight=None, 
sample_weight=None, initial_epoch=0, steps_per_epoch=None, validation_steps=None, validation_freq=1)

x:输入数据。如果模型只有一个输入,那么x的类型是numpy array,如果模型有多个输入,那么x的类型应当为list,list的元素是对应于各个输入的numpy array
y:标签,numpy array
batch_size:整数,指定进行梯度下降时每个batch包含的样本数。训练时一个batch的样本会被计算一次梯度下降,使目标函数优化一步。
epochs:整数,训练终止时的epoch值,训练将在达到该epoch值时停止,当没有设置initial_epoch时,它就是训练的总轮数,否则训练的总轮数为epochs 或 inital_epoch
verbose:日志显示,0为不在标准输出流输出日志信息,1为输出进度条记录,2为每个epoch输出一行记录
callbacks:list,其中的元素是keras.callbacks.Callback的对象。这个list中的回调函数将会在训练过程中的适当时机被调用,参考回调函数
validation_split:0~1之间的浮点数,用来指定训练集的一定比例数据作为验证集。验证集将不参与训练,并在每个epoch结束后测试的模型的指标,如损失函数、精确度等。注意,validation_split的划分在shuffle之前,因此如果你的数据本身是有序的,需要先手工打乱再指定validation_split,否则可能会出现验证集样本不均匀。
validation_data:形式为(X,y)的tuple,是指定的验证集。此参数将覆盖validation_spilt。
shuffle:布尔值或字符串,一般为布尔值,表示是否在训练过程中随机打乱输入样本的顺序。若为字符串“batch”,则是用来处理HDF5数据的特殊情况,它将在batch内部将数据打乱。
class_weight:字典,将不同的类别映射为不同的权值,该参数用来在训练过程中调整损失函数(只能用于训练)
sample_weight:权值的numpy array,用于在训练时调整损失函数(仅用于训练)。可以传递一个1D的与样本等长的向量用于对样本进行1对1的加权,或者在面对时序数据时,传递一个的形式为(samples,sequence_length)的矩阵来为每个时间步上的样本赋不同的权。这种情况下请确定在编译模型时添加了sample_weight_mode=’temporal’。
initial_epoch: 从该参数指定的epoch开始训练,在继续之前的训练时有用。
fit函数返回一个History的对象,其History.history属性记录了损失函数和其他指标的数值随epoch变化的情况,如果有验证集的话,也包含了验证集的这些指标变化情况。

这里主要指出的是shuffle参数和callbacks参数
1.shuffle: fit函数中的shuffle一般都设置为True,一般不管数据集是否有序,还要在fit之前手动shuffle一次;
2.callbacks: 以列表的形式传入回调函数,在keras.callbacks类中,一般我较为常用的是以下3个:

keras.callbacks.ModelCheckpoint(filepath, monitor='val_loss', verbose=0, save_best_only=False, save_weights_only=False, mode='auto', period=1)

filepath是保存的模型参数的位置,如果filepath是动态的话,就像这样:"weights-improvement-{epoch:02d}-{val_acc:.2f}.hdf5"那么每个epoch,只要监测指标有所上升,就保存该模型;相反,如果仅仅想保存最想要的监测指标的模型的话,那么可以设置输出文件名更改为固定,"weights.best.hdf5"这样就会不断覆盖前面所出现的精度,这样就会只有一个保存最想要模型的参数。


model.load_weights("weights.best.hdf5")

加载之前保存的model。

keras.callbacks.EarlyStopping(monitor='val_loss', patience=0, verbose=0, mode='auto')

当监测值不再改善时,该回调函数将中止训练,中止训练时,model就是当前的model,这个model可直接用于evaluate或者predict。

下面是有关变学习率的几个回调函数:


from keras.callbacks import ReduceLROnPlateau
from keras.callbacks import LearningRateScheduler
......

这篇博客写的挺详细的:Keras回调函数

还有如何应对Keras每次得到的结果不一致的方法,我目前的方法是在开头第一个导入numpy,然后即可设置随机数种子,对于PyTorch,在多个需要设置随机数的地方设置相应的随机数种子。
Keras重复运行结果不一致的问题

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值