(一)背景
说到baseline和art of start,做建模的同学应该都不会陌生吧,最近关于机器学习和深度学习的争执也是越来越多,其中就不乏会有人认为,其实深度学习能够做到的事情,机器学习也可以做到,还可以少花费一些时间来训练模型,计算资源的要求也会低一些,可是事实上到底是怎样的呢?baseline needs more love这篇论文(ACL2018)中就做了相关的实验来进行证明。
说到NLP问题,文档分类,文本序列匹配和句子分类是三大类常见的任务,但是不论是哪种任务,词向量就是不得不提的,词向量作用呢就是使用词向量将一个变长文本表示成一个固定向量,而现在在进行处理词向量的时候,一般的做法就是使用DNN大法,词向量为输入,使用一个复杂的神经网络(CNN,RNN 等)来进行文本表示学习(为了方便描述,以下称为复杂模型);但是除了使用复杂网络以外,还有一种简单的方法,那就是在词向量的基础上,直接简单的使用按元素求均值或者相加的简单方法来表示(为了方便描述,以下称为简单模型)。到底是哪个方法的效果比较好呢?使用简单的方法是否能够达到和复杂方法一样的效果呢?这就是这篇论文主要的工作内容。
(二)实验设计
1&#