算法工程师面试各大预训练模型的对比

0.总结

  • 文章来源: LawsonAbs@CSDN
  • 各大预训练模型的对比

1. ELMO

ELMO
全称Embedding from Language Models
目标得到的词的表示
编码器BiLSTM,一个用于forward LM,一个用于backward LM。
解码器
预训练任务预测下一个词+预测前一个词
损失函数
优点1. 能解决一词多义问题 ; 2.
缺点1.两个单向神经网络的输出的拼接,并不是作为一个整体;2.单向的语言模型来学习语言表示
用法将训练好的embedding 放到存在的模型中使用

2. BERT

BERT
目标
编码器Transformer
解码器
预训练任务MLM+NSP
损失函数
优点(1)利用无监督的方式训练一个大模型

因为Bert 的缺点太多(后面有太多的工作针对这些缺点进行改进),这里就单独拿出来仔细分析。

  • 预训练与微调阶段不一致的问题
  • BERT独立性假设的问题:即没有对被遮掩的token之间的关系进行学习
  • 无法应对生成式问题

3. GPT

GPT
目标
编码器
解码器
预训练任务
损失函数
优点
缺点

4. Xlnet

在谈 Xlnet 之前,看看下面两个概念:

  • AR 语言模型:依据单向序列预测当前的token,这个方向可以是前向也可以是后向。
    这类模型适合生成类任务。代表的例子就是GPT,GPT-2,ELMO
    在这里插入图片描述
  • AE 语言模型
    获取双向信息进行预测。例如想预测位置t的单词,既可以前向获取信息也可以后向获取信息。典型代表:BERT。
    在这里插入图片描述

Xlnet 将AR和AE两种统一到一起。提出使用PLM(Permutation Language Model)。

Xlnet
目标
编码器
解码器
预训练任务
损失函数
优点1.真正的双向学习;2.采用了permutation 语言模型;使用双流自注意力机制;结合Transformer-XL 的相对位置编码
缺点

5. BART

BART
目标
编码器
解码器
预训练任务
损失函数
优点
缺点
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

说文科技

看书人不妨赏个酒钱?

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值