NLP预训练模型学习总结

Ⅰ 综述

以邱锡鹏老师的文章为范本来分析为什么使用预训练模型以及预训练模型如何分类。

一、为什么需要预训练模型

Pre-trained Models缩写为PTMs。复旦大学邱锡鹏教授发表的NLP预训练模型综述“Pre-trained Models for Natural Language Processing: A Survey”,于2021年6月23日出版。这篇文章从多个角度分析了当前预训练语言模型,认为预训练模型有三大优势:

  • 预训练模型从大规模语料中学习知识,对下游任务帮助很大。
  • 预训练提供了一种更好的参数初始化方式,使得在目标任务上泛化能力更好,收敛速度更快。
  • 预训练可以认为是一种正则化手段,可以防止模型在小数据集上过拟合。

二、无监督预训练模型分类

预训练语言模型到目前分为两个阶段:

  1. 预训练word embeddings。这个阶段只训练词向量,而且是静态的,是一种feature-base方式。典型例子为word2vec, glove。利用词向量进行token embedding,然后送入模型中。模型设计百花齐放,但主要以LSTM为主。
  2. 预训练上下文编码器。这个阶段基于上下文动态学习embedding和encoding。典型例子为ELMO、GPT、BERT。

预训练语言模型大部分都是基于自监督学习来构建的,分为基于上下文学习和对比学习两类。

(一)语言模型Language Model(LM)

语言模型一般指的是自回归语言模型,由上文利用最大似然估计,来预测下文。典型代表就是GP

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AlphaFinance

您的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值