标题:《Slot-Gated Modeling for Joint Slot Filling and Intent Prediction》
来源:NAACL2018
方向:slot filling 、intent
声明:转载请注明出处:学习ML的皮皮虾
Intruduction:
基于Attention的RNN模型在联合意图识别(ID)和槽位填充(SF)上实现最好性能(其ID和SF的attention权重独立)。然而,其通过损失函数将两者关联只是隐式地关联。由于slot filling通常高度依赖于intent,因此本工作重点介绍如何通过引入插槽选通机制来模拟slot和intent向量之间的显式关系。本文提出slot gate结构,其关注于学习intent和slot attention向量之间的关系,通过全局优化获得更好的semantic frame。通过在ATIS和Snips数据集实验,相比于attention模型semantic frame准确率提升了4.2%。
创新点:提出slot-gate方法实现了最好的性能表现。
通过数据集实验表明slot-gate的有效性。
slot-gate有助于分析slot filling和intent的关系。
Model
底部特征:
使用BILSTM结构,输入:x={
}, 输出:
attention:
slot f