简述
文章与神经网络多轮对话系统一脉相承,文章的主要贡献在于,将几种网络结构的结果集成,取得了好于任一单一网络的结果。
文章全名:Improved Deep Learning Baselines for Ubuntu Corpus Dialogs
网络结构
前作的结构可以进一步抽象成
缺图
中间的NN可以是CNN, LSTM或Bi-LSTM,对应的图示为
缺图
其中CNN沿用了CNN用于文本分类中提到的网络结构,前作的结果,三种结构的结果与集成的结果的对比
缺图
单一结构下,LSTM最佳,Bi-LSTM稍差,CNN最差,三者集成之后,有明显提高。
集成的方法非常简单,取各单一结构结果的平均。
输入层用了GloVe产出的词向量。