[ NLP ] 自然语言处理必读论文及预训练模型(2019.10.28更)

【 Albert 】

ALBERT: A LITE BERT FOR SELF-SUPERVISED LEARNING OF LANGUAGE REPRESENTATIONS

论文链接:https://arxiv.org/pdf/1909.11942.pdf

GitHub:https://github.com/brightmart/albert_zh

 

【 SpanBERT 】

SpanBERT: Improving Pre-training by Representing and Predicting Spans

论文链接:https://arxiv.org/pdf/1907.10529.pdf

GitHub:https://github.com/facebookresearch/SpanBERT

 

【 RoBERTa 】

Liu Y, Ott M, Goyal N, et al. RoBERTa: A Robustly Optimized BERT Pretraining Approach[J]. arXiv preprint arXiv:1907.11692, 2019.

论文链接:https://arxiv.org/pdf/1907.11692.pdf

GitHub: https://github.com/brightmart/roberta_zh

 

【 ERNIE 2.0 】

Ernie 2.0: A continual pre-training framework for language understanding

论文链接:https://arxiv.org/pdf/1907.12412.pdf?source=post_page

GitHub:https://github.com/PaddlePaddle/ERNIE

 

【 ERNIE 1.0 】

ERNIE: Enhanced Representation through Knowledge Integration

论文链接: https://arxiv.org/pdf/1904.09223.pdf

GitHub:https://github.com/PaddlePaddle/ERNIE

 

【 OpenAI GPT2 】

Radford, A., et al. (2019). "Language models are unsupervised multitask learners." OpenAI Blog 1(8).

{ GitHub: https://github.com/openai/gpt-2 }

 

【 XLNet 】

Yang, Z., et al. (2019). "XLNet: Generalized Autoregressive Pretraining for Language Understanding." arXiv preprint arXiv:1906.08237.

{ GitHub: https://github.com/zihangdai/xlnet }

{ Chinese-pretrained-model GitHub: https://github.com/ymcui/Chinese-PreTrained-XLNet }

 

【 BERT wwm - ext 】

{ GitHub: https://github.com/ymcui/Chinese-BERT-wwm }

 

【 BERT wwm 】

Cui, Y., et al. (2019). "Pre-Training with Whole Word Masking for Chinese BERT." arXiv preprint arXiv:1906.08101.

哈工大讯飞联合发布全词覆盖中文BERT预训练模型

{ GitHub: https://github.com/ymcui/Chinese-BERT-wwm }

 

【 BERT 】

Devlin, J., et al. (2018). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. arXiv 2018." arXiv preprint arXiv:1810.04805.

{ GitHub: BERT }

 

【 ELMo 】

Peters, M. E., et al. (2018). "Deep contextualized word representations." arXiv preprint arXiv:1802.05365. NAACL2018最佳论文

 

【 OpenAI GPT 】

Radford, A., et al. (2018). "Improving language understanding by generative pre-training." URL https://s3-us-west-2. amazonaws. com/openai-assets/research-covers/languageunsupervised/language understanding paper. pdf.

 

【 word2vec (Skip-gram model)】

Mikolov, T., et al. (2013). Distributed representations of words and phrases and their compositionality. Advances in neural information processing systems. NIPS

 

【 Attention 】

Vaswani, A., et al. (2017). Attention is all you need. Advances in neural information processing systems.

 

中文词向量:

腾讯800W中文词 song yan老师出品 https://ai.tencent.com/ailab/nlp/embedding.html

[语法讲义].朱德熙.扫描版.pdf 《现代汉语词类研究》.郭锐.扫描版.pdf 《现代汉语语法研究教程》.陆俭明.扫描版.pdf 一种基于句子分割的文法自动推导算法.pdf 一种细粒度的评价对象抽取及倾向性判别方法.pdf 中文功能组块分析及应用研究.pdf 中文句法语义分析及其联合学习机制研究.pdf 人机对话系统中若干关键问题研究.pdf 从树库的实践看句本位和中心词分析法的生命力.pdf 关于CKY句法分析效率的实验性研究.pdf 关联文法语法分析的并行处理研究.pdf 口语对话系统中的一种稳健语言理解算法.pdf 句法分析树标注集及事件分析.pdf 基于Chart算法的句法分析系统的设计与实现.pdf 基于一种新的合成核的中文实体关系自动抽取.pdf 基于中心驱动模型的宾州中文树库(CTB)句法分析.pdf 基于中文的句法分析系统的研究与实现.pdf 基于二元组合文法的语义知识库构建.pdf 基于动作建模的中文依存句法分析.pdf 基于句法分析与依存分析的评价对象抽取.pdf 基于层次模型的中文句法分析.pdf 基于树库和机器学习的汉语依存句法分析.pdf 基于树库的汉语依存句法分析.pdf 基于概率上下文无关语法的句法分析研究与实现.pdf 基于统计的自然语言处理.pdf 基于自然语言理解的自动应答技术及应用研究.pdf 基于语义的汉语句法分析系统的研究与实现.pdf 基于语料库学习的多主题自动问答系统研究.pdf 基于语法功能匹配的句法分析算法.pdf 机器翻译原理与方法讲义(05)基于句法的统计机器翻译方法.pdf 汉语句子的组块分析体系.pdf 汉语句法分析方法研究.pdf 汉语多重关系复句的关系层次分析.pdf 汉语并列结构的自动识别.pdf 汉语概率型上下文无关语法的自动推导.pdf 统计句法分析建模中基于信息论的特征类型分析.pdf 自然语言处理-句法剖析论文.pdf 自然语言理解的语义分析在产品设计中的应用.pdf 融合丰富语言知识的汉语统计句法分析.pdf 限定领域的基本陈述句句法分析.pdf 面向中文问答系统的问句句法分析.pdf
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值