文章目录
- Attention-Based Recurrent Neural Network Models for Joint Intent Detection and Slot Filling(2016)
- Slot-Gated Modeling for Joint Slot Filling and Intent Prediction(2018)
- BERT for Joint Intent Classification and Slot Filling(2019)
- A Novel Bi-directional Interrelated Model for Joint Intent Detection andSlot Filling(2019)
本文按照论文发表年份进行排序,主要针对Slot Filling和Inten Detection联合网络。同时针对每一篇论文都有一个更详细的论文阅读笔记。
Attention-Based Recurrent Neural Network Models for Joint Intent Detection and Slot Filling(2016)
基于注意力的编码器-解码器神经网络模型最近在机器翻译和语音识别中显示出令人鼓舞的结果。在这项工作中,我们提出了一种基于注意力的神经网络模型,用于联合意图检测和slot filling,这对于许多语音理解和对话系统都是至关重要的步骤。与机器翻译和语音识别不同,对齐在slot filling中是显式的。我们探索将对齐信息整合到编码器-解码器框架中的不同策略。从编码器-解码器模型中的注意力机制中学习,我们进一步建议将注意力引入基于对齐的RNN模型。这种关注为意图分类和slot filling预测提供了更多信息。我们的独立任务模型在ATIS任务上实现了最优的意图检测错误率和slot fillingF1分数。与独立任务模型相比,我们的联合训练模型在意图检测上进一步获得了0.56%的绝对误差(相对值23.8%的相对误差),在slot filling上获得了0.23%的绝对增益。
笔记: