直播 | EMNLP 2020论文解读:从上下文学习还是从实体名字学习?

「AI Drive」是由 PaperWeekly 和 biendata 共同发起的学术直播间,旨在帮助更多的青年学者宣传其最新科研成果。我们一直认为,单向地输出知识并不是一个最好的方式,而有效地反馈和交流可能会让知识的传播更加有意义,从而产生更大的价值。

神经关系抽取旨在利用神经网络模型进行关系抽取。近年来,神经关系抽取已经在关系抽取任务上取得了 SOTA 的效果。神经关系抽取模型具有强大的编码能力和拟合能力, 能够自动抽取特征进行学习。但是目前还没有工作系统地分析过神经关系模型所依赖的特征对模型效果的影响。

本期 AI Drive,我们邀请到清华大学计算机系本科生彭皓,为大家解读其发表于 EMNLP 2020 的最新工作。对本期主题感兴趣的小伙伴,11 月 19日(周四)晚 7 点,我们准时相约 PaperWeekly B 站直播间。

直播信息

本篇工作针对神经关系抽取的两个主要特征(上下文信息和实体信息)进行了分析。我们发现:1)上下文信息是神经关系抽取模型的主要信息来源,同时模型也存在对实体信息的过度依赖问题。而实体信息中大部分是实体类型信息;2)现有的数据集可能会通过实体泄露浅层的启发式信息,这可能也导致了一些关系抽取任务的效果虚高。

基于以上分析,我们提出了采用实体遮蔽的对比学习框架,旨在帮助模型更好的借助上下文信息和实体类型信息,同时避免因为仅仅记住简单的特征造成的模型偏差(bias)。该预训练框架提高了多个场景下神经关系抽取模型的有效性和鲁棒性。

论文标题:

Learning from Context or Names? An Empirical Study on Neural Relation Extraction

代码和数据:

https://github.com/thunlp/RE-Context-or-Names

论文链接:

https://arxiv.org/abs/2010.01923

本次分享首先将陈述关系抽取的背景,之后介绍我们的希望研究的问题以及我们的发现,最后介绍我们针对问题提出的新的基于对比学习的预训练模型。

嘉宾介绍

 彭皓 / 清华大学计算机系本科生 

彭皓,现清华大学计算机系本科四年级在读。主要研究领域为关系抽取,知识图谱。以共同一作的身份发表 EMNLP 2020 顶级国际会议论文 1 篇。目前已经推研到李涓子老师实验室,未来在李涓子老师指导下攻读硕士,继续知识获取与表示相关的研究。

直播地址 & 交流群

本次直播将在 PaperWeekly B 站直播间进行,扫描下方海报二维码点击阅读原文即可免费观看。线上分享结束后,嘉宾还将在直播交流群内实时 QA,在 PaperWeekly 微信公众号后台回复「AI Drive」,即可获取入群通道

B 站直播间:

https://live.bilibili.com/14884511

合作伙伴

????

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值