预训练语言模型概述(持续更新ing...)

诸神缄默不语-个人CSDN博文目录

1. 万物起源-文本表征和词向量

  1. 语言模型:对自然语言进行建模
    序列化概率模型的思想,如在给定的语境下预测下一个词出现的概率
    在这里插入图片描述
  2. n-gram语言模型:通过统计数据中给定词在长度为n的上文的条件下出现的频率来表征这些词在相应语境下的条件概率。
    基本思路是基于给定文本信息,预测下一个最可能出现的词语。N=1称为unigram,表示下一词的出现不依赖于前面的任何词;N=2称为bigram,表示下一词仅依赖前面紧邻的一个词语,依次类推。
    在这里插入图片描述
    P ( w 1 , w 2 , … , w n ) = P ( w 1 ) ⋅ P ( w 2 ∣ w 1 ) ⋅ … ⋅ P ( w n ∣ w 1 , w 2 , … , w n − 1 ) P(w_1,w_2,\dots,w_n)=P(w_1)\boldsymbol{\cdot} P(w_2|w_1)\boldsymbol{\cdot}\dots\boldsymbol{\cdot}P(w_n|w_1,w_2,\dots,w_{n-1}) P(w1,w2,,wn)=P(w1)P(w2w1)P(wnw1,w2,,wn1)
    (马尔科夫假设)
  3. 学习语言结构:人工标注然后分类
  4. 前向神经网络(FFNN)语言模型(维度灾难)和循环神经网络(RNN)语言模型(长距离依赖)

2. 万恶之源transformers

在这里插入图片描述

3. 训练目标

  1. Standard Language Model (SLM):用multi-class one-label分类任务范式,用autogressive范式,每次预测序列中的下一个token。常用于left to right模型,但也可以用于其他顺序。
  2. denoising objectives:对输入进行扰动,预测原始输入
    1. Corrupted Text Reconstruction (CTR):仅计算扰动部分的损失函数
    2. Full Text Reconstruction (FTR):计算所有输入文本的损失函数(无论是否经扰动)

其他各种Auxiliary Objective:
在这里插入图片描述
在这里插入图片描述

4. Noising Functions

在这里插入图片描述

  1. Masking:mask可以是根据分布随机生成的,也可以根据prior knowledge设计(如上图中的实体)。
    特殊的掩码方式:全词掩码WWM(谷歌)、实体、短语(百度ERNIE)、n-gram掩码、动态掩码(RoBERTa)、基于语言知识的掩码(二郎神)
  2. Replacement:span由另一种信息而非[MASK]填充
  3. Deletion:常与FTR loss共用
  4. Permutation

5. Directionality of Representations

  1. Left-to-Right
  2. Bidirectional
  3. 混合

应用这些策略的方式:attention masking
在这里插入图片描述

6. Typical Pre-training Methods

在这里插入图片描述

在这里插入图片描述

6.1 Left-to-Right Language Model

简称L2R LMs(AR LM变体)

预测下一个单词,或计算当前一系列单词出现的概率:
在这里插入图片描述

right-to-left LM类似:
在这里插入图片描述

6.2 Masked Language Models

简称MLM

6.3 Prefix and Encoder-Decoder

用全连接mask编码输入,以AR方式解码输出。

  1. Prefix Language Model:在同一套参数下,输出部分是left-to-right,输入部分是全连接mask。输入部分常用CTR目标,输出部分常用标准conditional language modeling目标
  2. Encoder-decoder:与Prefix Language Model类似,但编码和解码用不同的模型参数

7. 各模型总结

在这里插入图片描述

我又写了一个新的博文。具体对这两个博文的合并和解耦工作以后再做吧,现在先凑合看好了:各种预训练模型的理论和调用方式大全

在这里插入图片描述

8. 其他transformer架构细节

  1. 位置编码
    1. 绝对位置编码APE
    2. 参数式相对位置编码RPE
  2. LN层的位置
    1. Post-LN
    2. Pre-LN(可去除warm-up学习率阶段)
    3. Sandwich-LN
  3. MoE层:该组件通过在网络中引入多个专家来减少需要激活的神经元数量,以此提升模型的计算效率
  4. 多粒度训练:指的是不同分词粒度
  5. 外部信息
    1. 命名实体(百度ERNIE)
    2. 知识图谱(百度ERNIE3.0,鹏城-百度文心,神舟)
    3. 语言学知识(Chinese BERT,孟子)
    4. 特定知识
  6. 多模态
  7. 高效计算
  8. 特定领域
  9. 英文预训练模型在中文语料库上训练且开源的中文版本

9. 本文撰写过程中使用的参考资料

  1. Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing
  2. 中文预训练模型研究进展:只对整体框架做了转述,具体内容还未在两篇博文中做详细概述
  3. 斯坦福大学Christopher Manning:Transformer语言模型为什么能取得突破:这是智源大会2020年的报告,我只看了文本,没看视频

10. 还没看,但是感觉可能会用得到的参考资料

  1. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer
  2. Pre-trained Models for Natural Language Processing: A Survey
  3. A primer on pretrained multilingual language models
  4. Language Models are Unsupervised Multitask Learners
  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

诸神缄默不语

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值