的槽函数_意图识别和槽填充的联合模型5

f06ad027db4d488ecbe04bf4fd61cc29.png

BERT for Joint Intent Classification and Slot Filling

全文链接

https://arxiv.org/abs/1902.10909​arxiv.org

代码

https://github.com/sliderSun/pynlp/tree/master/nlu/BERT-for-Sequence-Labeling-and-Text-Classification​github.com

本文提出两个创新点:

1)针对NLU泛化能力差的问题,探索了BERT预训练模型;

2)本文将联合了意图识别和基于bert槽填充模型

模型:

aa0e13c6c773bd0b18448a391205f21e.png

本文主要使用bert的架构,在bert中,[cls]训练后代表着整句话的语义信息。因此使用其作为意图识别的分类输入。使用softmax分类器进行分类:

93aee285795acd09cee83e4ddc323a72.png

槽位填充除了直接用输出结果进行序列标注,另外还接了一层 CRF改善实验结果。BERT中的输入是使用 WordPiece处理之后的词语,一个词可能会被拆成多个sub-token,比如 “redbreast”被拆成“##red”, “##bre”, “##ast”三部分,而此模型使用的是这些sub-token 中的第一个token作为输入。槽位标记也是使用softmax函数对每一个输出进行分类:

681409a00cd93ed80731bab4d331c266.png

在两者联合训练时,使用cross-entropy作为分类的损失函数:

6fc779b9b4792e93b3b875105ca93b7f.png

实验结果

b4559e30a75490feb1ea5d1bc4ea33fb.png
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值