文本相似度:Neural Network Models for Paraphrase Identification, Semantic Textual Similarity, NLI and QA

文章地址:https://arxiv.org/pdf/1806.04330.pdf

文章标题:Neural Network Models for Paraphrase Identification, Semantic Textual Similarity, Natural Language Inference, and Question Answering(用于意译识别、语义文本相似性、自然语言推理和问题回答的神经网络模型)CLOLING2018

源码地址:https://github.com/lanwuwei/SPM_toolkit

Abstract

在本文中,我们分析了几种用于句子对建模的神经网络设计(及其变体),并广泛比较了它们在八个数据集上的性能,包括释义识别语义文本相似性自然语言推理问题回答任务。尽管这些模型中的大多数都声称拥有最先进的性能,但原始论文通常只对一两个选定的数据集进行了报告。我们提供一个系统的研究和证明:(i)编码上下文信息LSTM 句子内部交互至关重要。(ii) Tree-LSTM无助于此前声称一样但令人惊讶的是在Twitter上提高了性能数据集。(iii)增强的顺序推理模型(陈et al ., 2017)是最好的到目前为止对于更大的数据集,而两两字交互模型(他和林,2016)更少的数据可用时达到最佳的性能。我们将实现作为一个开源工具包发布。

一、Introduction

句子对建模是许多NLP任务的基础技术,包括以下内容:

  • STS语义文本相似度(STS),衡量成对文本片段的潜在语义的等价程度(Agirre et al., 2016)。
  • PI:意译识别(PI),它识别两个句子是否表达相同的意思(多兰和布拉克特,2005;Xu et al., 2015)。
  • NLI:自然语言推理(NLI),也被称为识别文本蕴涵(RTE),它关注一个假设是否可以从一个前提中推断出来,需要理解假设和前提之间的语义相似性(Dagan et al., 2006;Bowman等人,2015)。
  • QA:问答(Question answer, QA),它可以近似为排名候选答案的句子或短语,基于其相似性的原始问题(Yang et al., 2015)。
  • MC:机器理解(MC),它要求文章和问题之间的句子匹配,指出包含答案的文本区域(Rajpurkar等,2016)。

传统上,研究人员必须针对每个任务开发不同的方法。现在,神经网络可以通过端到端的训练&#x

  • 3
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值