er图转换成关系模型的例题_预训练语言模型关系图+必读论文列表,清华荣誉出品...

清华大学学生王晓智和张正彦整理的预训练语言模型项目,包括模型关系图和必读论文列表。关系图清晰展示了BERT、GPT、XLNet和ERNIE等模型间的联系,论文列表分为模型、知识蒸馏与模型压缩、相关分析三部分,帮助读者深入理解预训练模型的发展和应用。
摘要由CSDN通过智能技术生成

机器之心整理

项目作者:王晓智、张正彦

参与:张倩、杜伟

预训练语言模型(PLM)是 NLP 领域的一大热门话题。从 BERT 到 GPT2 再到 XLNet,各种预训练模型层出不穷,不少同学感叹,「大佬慢点,跟不上了……」那么,这么多预训练模型要怎么学?它们之间有什么关联?为了理清这些问题,来自清华大学的两位本科同学整理了一份预训练语言模型必读论文列表,还用图的形式整理出了这些模型之间的复杂关系。

项目的两位作者——王晓智和张正彦都是清华大学的在读本科生。其中,王晓智师从清华大学计算机系教授李涓子和副教授刘知远,研究方向为 NLP 和知识图谱中的深度学习技术,于今年 4 月份入选 2019 年清华大学「未来学者」计划第二批名单;张正彦则参与过孙茂松教授指导的很多工作,如之前发布的「图神经网络必读论文列表」。此外,他还是增强版语言表征模型 ERNIE 的第一作者,并参与了多领域中文预训练模型仓库OpenCLaP的创建。

在这个预训练模型论文列表项目中,两位同学首先给出了一份预训练语言模型的关系图:

cf734866b59c7b0cb5ec91f792d6d020.png

图中列出了 BERT、GPT、XLNet、ERNIE 等大家熟知的模型以及它们之间的关系。以 BERT 和清华大学提出的 ERNIE 为例,张正彦等人曾在论文中指出,BERT 等预训练语言模型只能学习语言相关的信息,学习不到「知识」相关的信息。因此他们提出用知识图谱增强 BERT 的预训练效果,让预训练语言模型也能变得「有文化」。在这张图中我们可以清楚地看到论文中阐述的这种关系,即 BERT+知识图谱→ERNIE(清华版)。这种简化版的展示对于初学者理清思路非常有帮助。

除了这张关系图,两位同学还给出了一份预训练语言模型必读论文列表。列表分为三个部分:模型、知识蒸馏与模型压缩以及相关分析论文。机器之心曾经介绍过其中的一些论文,读者可以根据链接找到相关论文中文介绍。

模型部分包含 34 篇论文,列表如下:

183ddb661634335192f88b96f5417dc1.png
fa26396ae604c2095a7695749716cbf3.png
1f58ed0eccac1f5269d46bf0f5f86acf.png

其中,机器之心介绍过的论文如下:

  • NAACL 2018 | 最佳论文:艾伦人工智能研究所提出新型深度语境化词表征
  • 迄今最大模型?OpenAI 发布参数量高达 15 亿的通用语言模型 GPT-2
  • ACL 2019 | 清华等提出 ERNIE:知识图谱结合 BERT 才是「有文化」的语言模型
  • NLP 前沿研究成果大开源,百度 PaddleNLP-研究版发布
  • 7 Papers | 清华天机芯片;非侵入式脑机接口;ACL 2019 论文

「知识蒸馏与模型压缩」部分包含 11 篇论文,列表如下:

1bcf1ab30fd4c6a8cac668ff04445404.png

其中,机器之心介绍过的论文如下:

  • TinyBERT:模型小 7 倍,速度快 8 倍,华中科大、华为出品
  • 预训练小模型也能拿下 13 项 NLP 任务,谷歌 ALBERT 三大改造登顶 GLUE 基准

分析部分包含 26 篇论文,列表如下:

dbcc1e296fe3406d3c49028d842840c0.png
8dcc842a862ad83b4b1abed11a7333ae.png
79d16b02919857eb54d06ae8b9c34ac5.png

其中,机器之心介绍过的论文如下:

  • 7 papers | 华为、MIT 韩松论文;DeepMind 开源 OpenSpiel;目标检测算法全面综述
  • 红楼梦、法律,BERT 已有如此多的神奇应用
  • 如何可视化 BERT?你需要先理解神经网络的语言、树和几何性质
  • ACL 2019 提前看:预训练语言模型的最新探索
  • 技惊四座的 BERT 全靠数据集?大模型霸榜或许是学界的灾难
  • 嵌入向量能否理解数字?BERT 竟不如 ELMo?
  • 如何可视化 BERT?你需要先理解神经网络的语言、树和几何性质
  • 7 Papers | 谷歌量子霸权论文;13 项 NLP 任务夺冠的小模型 ALBERT
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值