yang191919
码龄12年
关注
提问 私信
  • 博客:19,679
    19,679
    总访问量
  • 13
    原创
  • 2,162,896
    排名
  • 18
    粉丝
  • 0
    铁粉

个人简介:算法工程师,Kaggle Master,公众号:朴素人工智能

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:上海市
  • 加入CSDN时间: 2012-07-18
博客简介:

yang191919的博客

查看详细资料
个人成就
  • 获得9次点赞
  • 内容获得4次评论
  • 获得63次收藏
创作历程
  • 13篇
    2020年
成就勋章
TA的专栏
  • 朴素人工智能
    13篇
兴趣领域 设置
  • 人工智能
    nlp
创作活动更多

HarmonyOS开发者社区有奖征文来啦!

用文字记录下您与HarmonyOS的故事。参与活动,还有机会赢奖,快来加入我们吧!

0人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

[预训练语言模型专题] SpanBERT: 抽取式问答的利器

本文为预训练语言模型专题的第16篇。快速传送门1-4:[萌芽时代]、[风起云涌]、[文本分类通用技巧]、[GPT家族]5-8:[BERT来临]、[浅析BERT代码]、[ERNIE合集]、[MT-DNN(KD)]9-12:[Transformer]、[Transformer-XL]、[UniLM]、[Mass-Bart]13-14:[跨语种模型]、[XLNet],[RoBERTa]知乎关注:https://zhuanlan.zhihu.com/naiveAI感谢清华...
原创
发布博客 2020.06.20 ·
2168 阅读 ·
0 点赞 ·
0 评论 ·
5 收藏

[预训练语言模型专题] RoBERTa: 捍卫BERT的尊严

本文为预训练语言模型专题的第15篇。快速传送门1-4:[萌芽时代]、[风起云涌]、[文本分类通用技巧]、[GPT家族]5-8:[BERT来临]、[浅析BERT代码]、[ERNIE合集]、[MT-DNN(KD)]9-12:[Transformer]、[Transformer-XL]、[UniLM]、[Mass-Bart]13-14:[跨语种模型]、[XLNet]感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红...
原创
发布博客 2020.06.18 ·
1670 阅读 ·
1 点赞 ·
0 评论 ·
10 收藏

[预训练语言模型专题] XLNet:公平一战!多项任务效果超越BERT

本文为预训练语言模型专题的第14篇。快速传送门1-4:[萌芽时代]、[风起云涌]、[文本分类通用技巧]、[GPT家族]5-8:[BERT来临]、[浅析BERT代码]、[ERNIE合集]、[MT-DNN(KD)]9-12:[Transformer]、[Transformer-XL]、[UniLM]、[Mass-Bart]13:[跨语种模型]感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红框中为已介绍的文章,绿...
原创
发布博客 2020.05.19 ·
652 阅读 ·
1 点赞 ·
0 评论 ·
2 收藏

[CLS]预训练语言模型的前世今生[SEP]萌芽时代[SEP]

之前,我们公众号发表过几篇前沿论文的阅读笔记,欢迎大家去阅读和交流。而在这里,我们将会做一个NLP专题的系列阅读,专门阅读某些专题的论文。第一个当然是预训练语言模型,之后可能会有阅读理解,以及其他专题的阅读。因为文章较多,每个专题系列,都会分多篇推送来给大家呈现,敬请期待!前言前段时间,在github里发现一个很不错的repo,是母校自然语言处理实验室维护的关于自然语言处理中预训练语言模型的必读论文推荐,在此奉上链接,并由衷感谢他们的整理。https://github.com/thunlp/PL
原创
发布博客 2020.05.15 ·
2322 阅读 ·
2 点赞 ·
0 评论 ·
6 收藏

[预训练语言模型系列专题] 风起云涌

前言欢迎大家来到我们预训练语言模型的专题系列分享,本篇推送是该专题的第二篇!预训练语言模型已经成为了NLP研究中一个非常火热的话题,优秀的模型包括BERT,GPT2等都在学术研究、工业领域、算法比赛中大放光彩。在专题上一期推送【萌芽时代】里,我们介绍了预训练语言模型思想的萌芽。今天我们推出的这篇推送, 将继续为大家介绍预训练语言模型是如何进一步发展和演进的。在此感谢清华大学自然语言处理实验室关于预训练语言模型的必读论文的整理(链接:https://github.com/thunlp/PLMpaper
原创
发布博客 2020.05.15 ·
671 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

[预训练语言模型专题] 十分钟了解文本分类通用训练技巧

欢迎大家来到预训练语言模型的专题系列分享,本篇推送是该专题系列的第三篇。在前两篇推送[萌芽时代],[风起云涌]中,我们分享了该领域的奠基文章以及声名鹊起却生不逢时的ELMo模型,本期我们带来的文章将会让大家了解文本分类的一些通用技巧,希望大家看完后炼丹技术都能更上一层楼!同时感谢清华大学自然语言处理实验室整理的体系图,我们将沿此脉络前行,探索预训练语言模型的前沿技术,本期的第一篇文章处于图中绿色框内,另一篇为课外阅读。红色框内的论文在前几期中介绍,大家有兴趣的可以前去一看。Universa.
原创
发布博客 2020.05.15 ·
710 阅读 ·
1 点赞 ·
0 评论 ·
3 收藏

[预训练语言模型专题] 银色独角兽GPT家族

本文为预训练语言模型专题系列第四篇前期回顾:[萌芽时代]、[风起云涌]、[文本分类通用训练技巧]感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红色框为前期脚印,绿色框为本期介绍,欢迎大家留言讨论交流!SHOCKING在具体看论文之前,我们先来看看GPT-2,也是GPT家族巨人的惊人表现做一个开胃菜。在一个生成式任务上,OpenAI给出了这么一个开头:翻成中文是:在一项惊人的研究中,科学家们发现了一群独角兽,它们生活在安
原创
发布博客 2020.05.15 ·
521 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

[预训练语言模型专题] BERT,开启NLP新时代的王者

本文为预训练语言模型专题系列第五篇前期回顾:[萌芽时代]、[风起云涌]、[文本分类通用技巧]、[GPT家族]感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红色框为前期脚印,绿色框为本期介绍,欢迎大家留言讨论交流。BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (2018)本期将要介绍的就是在NLP领域无人..
原创
发布博客 2020.05.15 ·
860 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

[预训练语言模型专题] Huggingface简介及BERT代码浅析

本文为预训练语言模型专题系列第六篇快速传送门[萌芽时代],[风起云涌],[文本分类通用技巧],[GPT家族],[BERT来临]感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红色框为已介绍的文章。本期的内容是结合Huggingface的Transformers代码,来进一步了解下BERT的pytorch实现,欢迎大家留言讨论交流。Hugging face 简介Hugging face???? 是一家总部位于纽约..
原创
发布博客 2020.05.15 ·
4725 阅读 ·
3 点赞 ·
0 评论 ·
24 收藏

[预训练语言模型专题] 百度出品ERNIE合集,问国产预训练语言模型哪家强

本文为预训练语言模型专题系列第七篇系列传送门[萌芽时代]、[风起云涌]、[文本分类通用技巧]、[GPT家族]、[BERT来临]、[BERT代码浅析]感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红框中为已介绍的文章,绿框中为本期介绍的文章,欢迎大家留言讨论交流。ERNIE: Enhanced Representation through Knowledge Integration(2019)大家可能...
原创
发布博客 2020.05.15 ·
546 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

[预训练语言模型专题] MT-DNN(KD) : 预训练、多任务、知识蒸馏的结合

本文为预训练语言模型专题系列第八篇快速传送门1-4:[萌芽时代]、[风起云涌]、[文本分类通用技巧]、[GPT家族]5-7:[BERT来临]、[浅析BERT代码]、[ERNIE合集]感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红框中为已介绍的文章,绿框中为本期介绍的文章,欢迎大家留言讨论交流。Multi-Task Deep Neural Networks for Natural Language U...
原创
发布博客 2020.05.15 ·
1825 阅读 ·
0 点赞 ·
0 评论 ·
3 收藏

[预训练语言模型专题] 结合HuggingFace代码浅析Transformer

本文为预训练语言模型专题系列第九篇快速传送门1-4:[萌芽时代]、[风起云涌]、[文本分类通用技巧]、[GPT家族]5-8:[BERT来临]、[浅析BERT代码]、[ERNIE合集]、[MT-DNN(KD)]感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红框中为已介绍的文章,本期将结合HuggingFace代码浅析Transformer代码,欢迎大家留言讨论交流。前言前面几期一起分享了这么多基于Tr...
原创
发布博客 2020.05.15 ·
2331 阅读 ·
1 点赞 ·
4 评论 ·
8 收藏

[预训练语言模型专题] Transformer-XL 超长上下文注意力模型

本文为预训练语言模型专题系列第十篇,同时增录之前的两篇为第十一和十二篇。快速传送门1-4:[萌芽时代]、[风起云涌]、[文本分类通用技巧]、[GPT家族]5-8:[BERT来临]、[浅析BERT代码]、[ERNIE合集]、[MT-DNN(KD)]9-12:[Transformer]、[Transformer-XL]、[UniLM]、[Mass-Bart]感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红框中为已介...
原创
发布博客 2020.05.11 ·
663 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏