GPT系列模型详解

NLP系列模型解析:
Transformer:https://blog.csdn.net/lppfwl/article/details/121084602
GPT系列:https://blog.csdn.net/lppfwl/article/details/121010275
BERT:https://blog.csdn.net/lppfwl/article/details/121124617

最近看了GPT系列模型,这里特此做一下学习记录和个人思考,先附上三个模型的论文:
GPT:https://paperswithcode.com/method/gpt
GPT2:https://paperswithcode.com/method/gpt-2
GPT3:https://paperswithcode.com/method/gpt-3
下面逐一进行介绍:

GPT

pytorch版本代码:https://github.com/huggingface/pytorch-openai-transformer-lm
一句话就是:预训练+微调
作者指出:无标签的文本语料很丰富,但是针对特定任务的有标签文本数据很稀少,导致针对特定任务来训练一个准确的模型很有挑战。因此作者提出了”预训练+微调“的方法,先大量多样的无标签语料数据上训练一个通用的语言模型,再用特定任务的有标签数据进行微调,也就是迁移学习。GPT模型在12个任务中的9个都实现了SOTA的效果,且个别任务效果提升很明显。
在这里插入图片描述

1.模型架构
无监督预训练

预训练阶段作者使用语言模型(LM)的训练方式,模型使用的是transformer的变体,即多层transformer-decoder,这个后面会讲。

  • 4
    点赞
  • 55
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值