【机器学习案例5】语言建模 - 最常见的预训练任务一览表

本文汇总了预训练语言模型中的多种任务,如CLM、MLM、RTD、ELECTRA等,探讨了各自的任务目标、损失函数以及在自然语言处理中的应用,旨在提供一个全面的预训练任务概览。
摘要由CSDN通过智能技术生成

自监督学习 (SSL) 是基于 Transformer 的预训练语言模型的支柱,该范例涉及解决有助于建模自然语言的预训练任务 (PT)。本文将所有流行的预训练任务放在一起,以便我们一目了然地评估它们。

SSL 中的损失函数

这里的损失函数只是模型训练的各个预训练任务损失的加权和。

BERT为例,损失将是MLMMasked Language Modelling)和NSPNext Sentence Prediction)的加权和

多年来,出现了许多解决特定问题的预训练任务。我们将回顾 10 个有趣且流行的函数及其相应的损失函数:

  1. 因果语言建模(CLM
  2. 掩码语言建模(MLM
  3. 替换令牌检测RTD )
  4. 洗牌令牌检测(STD
  5. 随机代币替换(RTS
  6. 交换语言建模SLM)
  7. 翻译语言建模(TLM
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值