在自然语言处理(NLP)领域,相似性度量是一个重要的任务,它被广泛应用于文本匹配、推荐系统等任务中。其中,GRU(Gated Recurrent Unit)是一种经常被用于NLP任务的循环神经网络模型。但是,有时候我们会发现,在使用GRU进行相似性度量时,训练准确率(acc)很高,但是测试准确率却很低,甚至只有50-60%,同时loss也很混乱。那么,为什么会出现这种情况呢?如何解决这个问题呢?
一、为什么会出现训练准确率高,测试准确率低的情况?
在自然语言处理(NLP)领域,相似性度量是一个重要的任务,它被广泛应用于文本匹配、推荐系统等任务中。其中,GRU(Gated Recurrent Unit)是一种经常被用于NLP任务的循环神经网络模型。但是,有时候我们会发现,在使用GRU进行相似性度量时,训练准确率(acc)很高,但是测试准确率却很低,甚至只有50-60%,同时loss也很混乱。那么,为什么会出现这种情况呢?如何解决这个问题呢?
一、为什么会出现训练准确率高,测试准确率低的情况?