为了防止过拟合,我设置了提前终止early stop。发现预测时的train accuracy与训练时打印出的max train accuracy并不一致。经断点调试,发现是early stop代码段的问题
if test_accuracy > self.max_test_acc and train_accuracy > self.max_train_acc - 0.04:
self.max_test_acc = test_accuracy
self.max_acc_epoch = epoch
self.train_sync_acc = train_accuracy
if train_accuracy > self.max_train_acc:
self.max_train_acc = train_accuracy
self.best_net = self.net.state_dict() # 这里有问题
print('*' * 50)
print('epoch', epoch + 1, 'current loss', loss.cpu().data, 'train acc:', train_accuracy,
'current max test acc:', self.max_test_acc)
print('*' * 50)
if epoch > self.max_acc_epoch + early_stop:
break
问题就出在标记处,我本来是想每获得一个最大的test accuracy就保存当前net。但是这步赋值后,self.best_net
与self.net.state_dict()
地址完全一致,两者同时变化,因而这步赋值就没有任何意义了。
修改方法:使用深拷贝
from copy import deepcopy
...
self.best_net = deepcopy(self.net.state_dict())
...
改过了之后就正常了~
(用的是PyTorch框架)