根据id 隐藏_[论文解读] 2019 BiDirectional Interrelated SF-ID

本文介绍了2019年提出的一种新型双向相互关联模型,用于联合意图检测和槽填充任务,特别是在ATIS数据集上取得领先性能。模型利用注意力机制整合上下文信息,并通过迭代机制增强ID和SF的信息交互。
摘要由CSDN通过智能技术生成

A Novel Bi-directional Interrelated Model for Joint Intent Detection and Slot Filling

只讲解不给代码的人,都是耍流氓

一、介绍

该论文中提出了一个基于Attention的联合模型,能够加强Slot Filling 和 Intent Detection 之间的有向连接,当时在ATIS数据集上取得了SOTA的效果。

注意这里是有向连接,因此也是有双向连接。因为SF和ID之间是存在相互依赖关系,单向依赖和双向依赖都能够加强信息建模。

二、模型

8f1f41866cf3ea6b1e563aefbd5ea8e4.png

2.1 整合上下文信息

在SF任务中,每个token的标签不仅与单词具体语法和词法信息有关,也与文本的上下文有关。与上下文有关不仅在这里有重要的应用,在其他任务中基本上都有其应用,毕竟根据文本判定其含义才是语言的精髓。

而如何根据上下文获取有效信息呢?注意力机制是一个非常好的建模工具。

2.2 Slot Attention

在SF模块中,上下文信息获取的

如图所示,左边是一个BiLSTM模型,用于在输入文本中提取特征。而Attention机制与Attention-Based Recurrent Neural Network Models for Joint Intent Detection and Slot Filling一致,具体细节请看此论文。

2.3 Intent Attention

IntentDetection的上下文向量的计算方法与SF是一致的,那也就说明 shape(

) = shape(
)。虽然获取方法是一致的,可使用的渠道不一样,为两个独立的注意力机制,提取的特征是不一样的。

三、SF-ID网络架构

前面提到过SF subnetID subnet自网络是有向连接,也就会存在SF-FirstID-First这两种模式。前一个网络会将输出的隐藏层信息传递给后一层,这样就会建立一种依赖性关系。

3.1 SF-First

在这种模式中,SF subnet会先执行,过程如下:

  • SF subnet中将
    作为输入,生成加强版的
    向量,
  • 使用CRF
    来做序列标注任务,完成槽填充这个自任务。

3.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值