日报-0408
今日主要工作记录如下:
-
调整Gan网络的训练方式
LDL数据不像传统图像数据一样,可以轻松地可视化。因此为了提取“最优”的Gan网络,需要制定特殊的Gan网络“早停”方案,以下对其结果进行记录。 -
验证集误差阈值限制法
即将每轮Gan网络都保存下来,并在验证集上进行样本生成;此处使用验证集的标签分布来生成对应的样本特征,当生成的样本特征与真实样本特征相差小于一定阈值时保存该模型,最后测试时使用最后一次保存的模型。
其中Gan训练的细节为:判别器D的学习率为0.01, 生成器G的学习率为0.001,轮数都为500轮,五折交叉实验的loss损失如下所示:
在alpha数据集的欧式距离预测结果平均下来,使用Gan网络的算法会比不使用的算法高出0.0001左右,即效果不增反减。 -
验证集误差最小法
与上一策略相似,不过只保存预测误差最小的那一轮对应的Gan网络,并使用该网络生成样本。
但其结果也不太理想,最后的结果也是副作用较大。其训练过程损失曲线如下:
其中第4轮的损失突然激增,个人分析结果后认为:判别器D的学习率过大,导致训练过程太不稳定,从而导致Gan无法训练。
因此后面考虑调整学习率来继续实验。