![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Paper
ZJWANGER
永远相信美好的事情即将发生
展开
-
texstudio Error: Could not start the command: pdflatex -synctex=1 -interaction=nonstopmode "*".tex
问题描述系统:Mac OS应用场景:在TextStudio使用Latex写论文错误:编译论文时报以下错误:Error: Could not start the command: pdflatex -synctex=1 -interaction=nonstopmode "*".tex解决方法打开终端,输入which pdflatex查找该命令的位置which pdflatex终端...原创 2020-04-26 18:08:34 · 1519 阅读 · 0 评论 -
BERT:Pre-training of Deep Bidirectional Transformers for Language
BERT: Bidirectional Encoder Representations from Transformers1. 创新点BERT旨在通过联合调节所有层中的左右上下文来预先训练来自未标记文本的深度双向表示。2. Bert总共分两步:pre-training:在预训练期间,模型在不同的预训练任务上训练未标记的数据。fine-tuning:对于微调,首先使用预先训练的参数初始...原创 2019-07-23 21:33:58 · 303 阅读 · 0 评论 -
XLNet: Generalized Autoregressive Pretraining for Language Understanding
1. 创新点XLNet主要解决了Bert存在的一些问题,所以在介绍XLNet前,先简单介绍一下Bert,及其问题。1.1 BERT凭借对双向上下文进行建模的能力,Bert在自然语言处理任务上表现优异。Bert有两个训练任务。训练任务1一句话中取15%的词用[MASK][MASK][MASK]替换, 然后预测[MASK][MASK][MASK]替换的词原来是什么词。预测[MASK][M...原创 2019-09-22 20:57:42 · 280 阅读 · 0 评论