TransOMCS:从语言图提取常识知识

TransOMCS是一个从语言知识图中提取常识知识的模型,解决了传统常识知识获取方法的成本和局限性。通过模式提取、清洗和知识迁移,TransOMCS能以低成本生成大规模的常识知识库,且在质量和新颖性上表现优越。此外,DISCOS框架将ASER事件转化为ATOMIC格式的常识,展示了从语言知识到复杂常识的可转移性。
摘要由CSDN通过智能技术生成

点击蓝字

关注我们

AI TIME欢迎每一位AI爱好者的加入!

从符号智能到感知智能,再到今天的认知智能,人工智能的发展可谓日新月异。2020年大火的GPT-3,其参数量达到了千亿级别,规模已经接近人类神经元的数量。这说明,GPT-3的表示能力已经接近人类了,但它仍有一些认知局限——没有常识。常识知识的获取、理解与运用,一直是人工智能最核心的问题之一。长久以来,学术界和工业界都一直欠缺一个比较好的常识知识表达与获取方法。

在本次直播中,我们很荣幸地邀请到来自香港科技大学的张洪铭博士为大家分享他参与的关于常识获取的相关工作。本期分享介绍了如何从事态(事件和状态)的角度来理解常识知识以及如何从无标注文本里以低成本自动获得相关的知识,主要围绕以下几个方面进行展开:⑴现在预训练模型(BERT, RoBERTa等)在常识理解任务上的进展和局限性。⑵如何利用高阶语义倾向来表达理解常识知识。⑶在此基础上,如何自动从预料中构建一个基于事件的知识图谱ASER来有效表达常识知识。⑷如何利用ASER中所蕴含的常识知识来帮助下游任务(指代消解,事件预测,问答,对话等等)。

 

张洪铭:香港科技大学三年级博士生,导师宋阳秋教授,目前在宾夕法尼亚大学访问,导师Dan Roth教授。主要研究方向是常识与事件理解。曾获HKPF和MSRA Fellowship。主要工作发表在ACL,EMNLP,NAACL,WWW,IJCAI等会议上。

一、背景

毋庸置疑,常识在自然语言理解(NLU)中是极为重要的。以下图为例,人类可以很容易理解“踩进水坑”与“回家换鞋”这两个事件是如何关联起来的,因为我们知道踩进水坑会导致鞋湿,而湿的鞋会让人感到不舒服,自然就会想回家换掉。由此可见,常识与事件是息息相关的。

何为常识?一个较为流行的定义是“对于正常人来说,常识一般是指对周围事件的良好判断”。而在AI领域,通常将常识作为一个术语来指代“大多数人公认的百万级的基本事实和理解”。常识与事实(fact)一个很重要的区别是由于默认常识是大家所熟知的,为了交流的高效性,在社交中通常会被人们所忽略。比方说,“如果你忘掉了一个人的生日,他可能会很生气”,“鸟可以飞,但书不能”,

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值