语言comet_《COMET》阅读笔记

2c4a9d721ea70562c0fc526f96e7afd3.png

来源:ACL2019

论文:《COMET : Commonsense Transformers for Automatic Knowledge Graph Construction》

Abstract

我们首次全面研究了两种流行常识知识图的自动知识库构建:ATOMIC(Sap et al.,2019)和ConceptNet(Speer et al.,2017)。与许多使用规范模板存储知识的传统知识库相反,常识知识库只存储结构松散的、文本描述开放的知识。我们认为,实现常识自动完成的一个重要步骤是开发常识知识的生成模型,并提出了Commonsense Transformers(COMET),来学习生成自然语言里丰富且多样的常识描述。尽管有常识建模的挑战,我们的研究显示,当深层预训练语言模型的内隐知识被转移到常识知识图谱中生成外显知识时,会有很好的结果。实验结果表明,COMET能够产生人类认为高质量的新知识,top1高达77.5%(ATOMIC)和91.7%(ConceptNet)的精度在前1名,这接近人类对这些资源的表现。我们的发现表明,使用生成性常识模型自动完成常识知识库可能很快成为提取方法的一种可行的替代方法。

Introduction

Previous work

dd51a5851b3b10e872b0fd67df15ce11.png

最近在训练深层语境化语言模型方面的进展(Peters等人,2018;Radford等人,2018;Devlin等人,2018)提供了一个机会,可以作为除了提取方法以外的常识知识库构建途径。当这些大型语言模型的底层表示被微调以解决最终任务时,它们显示出良好的性能,从而在各种复杂问题上获得最新的结果。

在本文中,我们定义了COMET:通过对已有的三元组作为种子知识集进行训练来构建常识知识库。利用这个种子集,一个预先训练的语言模型进行学习适用于知识生成的表示,并产生高质量的新元组。

contributions

1、开发了知识库构建的生成方法。模型必须学习生成新节点,并通过生成连贯地完善现有种子的短语和关系类型来识别与现有节点之间的边缘。

2、开发了一个使用大型transformer语言模型来学习生成常识知识元组的框架。

3、最后,我们对两个领域的常识知识(ATOMIC and ConceptNet)的质量、新颖性和多样性进行了实证研究;对学习一个有效的知识模型需要的种子元组数目的有效性研究。

Learning to Generate Commonsense

COMET是一个自适应框架,用于通过在知识元组的种子集上训练语言模型,从语言模型构建常识知识库。这些元组为COMET提供了必须学习的知识库结构和关系,COMET学习适应预训练模型从中学习语言模型表示,以向种子知识图添加新的节点和边。

Task

更具体地说,该问题假

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值