自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 [预训练语言模型专题] SpanBERT: 抽取式问答的利器

本文为预训练语言模型专题的第16篇。快速传送门1-4:[萌芽时代]、[风起云涌]、[文本分类通用技巧]、[GPT家族]5-8:[BERT来临]、[浅析BERT代码]、[ERNIE合集]、[MT-DNN(KD)]9-12:[Transformer]、[Transformer-XL]、[UniLM]、[Mass-Bart]13-14:[跨语种模型]、[XLNet],[RoBERTa]知乎关注:https://zhuanlan.zhihu.com/naiveAI感谢清华...

2020-06-20 20:38:47 2124

原创 [预训练语言模型专题] RoBERTa: 捍卫BERT的尊严

本文为预训练语言模型专题的第15篇。快速传送门1-4:[萌芽时代]、[风起云涌]、[文本分类通用技巧]、[GPT家族]5-8:[BERT来临]、[浅析BERT代码]、[ERNIE合集]、[MT-DNN(KD)]9-12:[Transformer]、[Transformer-XL]、[UniLM]、[Mass-Bart]13-14:[跨语种模型]、[XLNet]感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红...

2020-06-18 18:08:31 1633

原创 [预训练语言模型专题] XLNet:公平一战!多项任务效果超越BERT

本文为预训练语言模型专题的第14篇。快速传送门1-4:[萌芽时代]、[风起云涌]、[文本分类通用技巧]、[GPT家族]5-8:[BERT来临]、[浅析BERT代码]、[ERNIE合集]、[MT-DNN(KD)]9-12:[Transformer]、[Transformer-XL]、[UniLM]、[Mass-Bart]13:[跨语种模型]感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红框中为已介绍的文章,绿...

2020-05-19 21:45:24 623

原创 [CLS]预训练语言模型的前世今生[SEP]萌芽时代[SEP]

之前,我们公众号发表过几篇前沿论文的阅读笔记,欢迎大家去阅读和交流。而在这里,我们将会做一个NLP专题的系列阅读,专门阅读某些专题的论文。第一个当然是预训练语言模型,之后可能会有阅读理解,以及其他专题的阅读。因为文章较多,每个专题系列,都会分多篇推送来给大家呈现,敬请期待!前言前段时间,在github里发现一个很不错的repo,是母校自然语言处理实验室维护的关于自然语言处理中预训练语言模型的必读论文推荐,在此奉上链接,并由衷感谢他们的整理。https://github.com/thunlp/PL

2020-05-15 14:28:42 2243

原创 [预训练语言模型系列专题] 风起云涌

前言欢迎大家来到我们预训练语言模型的专题系列分享,本篇推送是该专题的第二篇!预训练语言模型已经成为了NLP研究中一个非常火热的话题,优秀的模型包括BERT,GPT2等都在学术研究、工业领域、算法比赛中大放光彩。在专题上一期推送【萌芽时代】里,我们介绍了预训练语言模型思想的萌芽。今天我们推出的这篇推送, 将继续为大家介绍预训练语言模型是如何进一步发展和演进的。在此感谢清华大学自然语言处理实验室关于预训练语言模型的必读论文的整理(链接:https://github.com/thunlp/PLMpaper

2020-05-15 14:25:15 644

原创 [预训练语言模型专题] 十分钟了解文本分类通用训练技巧

欢迎大家来到预训练语言模型的专题系列分享,本篇推送是该专题系列的第三篇。在前两篇推送[萌芽时代],[风起云涌]中,我们分享了该领域的奠基文章以及声名鹊起却生不逢时的ELMo模型,本期我们带来的文章将会让大家了解文本分类的一些通用技巧,希望大家看完后炼丹技术都能更上一层楼!同时感谢清华大学自然语言处理实验室整理的体系图,我们将沿此脉络前行,探索预训练语言模型的前沿技术,本期的第一篇文章处于图中绿色框内,另一篇为课外阅读。红色框内的论文在前几期中介绍,大家有兴趣的可以前去一看。Universa.

2020-05-15 14:23:36 684

原创 [预训练语言模型专题] 银色独角兽GPT家族

本文为预训练语言模型专题系列第四篇前期回顾:[萌芽时代]、[风起云涌]、[文本分类通用训练技巧]感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红色框为前期脚印,绿色框为本期介绍,欢迎大家留言讨论交流!SHOCKING在具体看论文之前,我们先来看看GPT-2,也是GPT家族巨人的惊人表现做一个开胃菜。在一个生成式任务上,OpenAI给出了这么一个开头:翻成中文是:在一项惊人的研究中,科学家们发现了一群独角兽,它们生活在安

2020-05-15 14:19:48 499

原创 [预训练语言模型专题] BERT,开启NLP新时代的王者

本文为预训练语言模型专题系列第五篇前期回顾:[萌芽时代]、[风起云涌]、[文本分类通用技巧]、[GPT家族]感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红色框为前期脚印,绿色框为本期介绍,欢迎大家留言讨论交流。BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (2018)本期将要介绍的就是在NLP领域无人..

2020-05-15 14:11:56 827

原创 [预训练语言模型专题] Huggingface简介及BERT代码浅析

本文为预训练语言模型专题系列第六篇快速传送门[萌芽时代],[风起云涌],[文本分类通用技巧],[GPT家族],[BERT来临]感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红色框为已介绍的文章。本期的内容是结合Huggingface的Transformers代码,来进一步了解下BERT的pytorch实现,欢迎大家留言讨论交流。Hugging face 简介Hugging face???? 是一家总部位于纽约..

2020-05-15 14:02:15 4644

原创 [预训练语言模型专题] 百度出品ERNIE合集,问国产预训练语言模型哪家强

本文为预训练语言模型专题系列第七篇系列传送门[萌芽时代]、[风起云涌]、[文本分类通用技巧]、[GPT家族]、[BERT来临]、[BERT代码浅析]感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红框中为已介绍的文章,绿框中为本期介绍的文章,欢迎大家留言讨论交流。ERNIE: Enhanced Representation through Knowledge Integration(2019)大家可能...

2020-05-15 13:56:47 515

原创 [预训练语言模型专题] MT-DNN(KD) : 预训练、多任务、知识蒸馏的结合

本文为预训练语言模型专题系列第八篇快速传送门1-4:[萌芽时代]、[风起云涌]、[文本分类通用技巧]、[GPT家族]5-7:[BERT来临]、[浅析BERT代码]、[ERNIE合集]感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红框中为已介绍的文章,绿框中为本期介绍的文章,欢迎大家留言讨论交流。Multi-Task Deep Neural Networks for Natural Language U...

2020-05-15 13:47:54 1777

原创 [预训练语言模型专题] 结合HuggingFace代码浅析Transformer

本文为预训练语言模型专题系列第九篇快速传送门1-4:[萌芽时代]、[风起云涌]、[文本分类通用技巧]、[GPT家族]5-8:[BERT来临]、[浅析BERT代码]、[ERNIE合集]、[MT-DNN(KD)]感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红框中为已介绍的文章,本期将结合HuggingFace代码浅析Transformer代码,欢迎大家留言讨论交流。前言前面几期一起分享了这么多基于Tr...

2020-05-15 13:44:50 2256 4

原创 [预训练语言模型专题] Transformer-XL 超长上下文注意力模型

本文为预训练语言模型专题系列第十篇,同时增录之前的两篇为第十一和十二篇。快速传送门1-4:[萌芽时代]、[风起云涌]、[文本分类通用技巧]、[GPT家族]5-8:[BERT来临]、[浅析BERT代码]、[ERNIE合集]、[MT-DNN(KD)]9-12:[Transformer]、[Transformer-XL]、[UniLM]、[Mass-Bart]感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红框中为已介...

2020-05-11 17:23:57 640

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除