GPT-1和GPT-2的发展

本文介绍了GPT-1和GPT-2的发展,GPT-1采用预训练+FineTuning的方式,利用Transformer的Decoder进行语言建模。在预训练阶段,GPT-1通过无监督学习提高预测下文的准确性。FineTuning阶段,模型参数被迁移以适应特定任务。GPT-2则因大量数据和参数以及改进的Transformer结构展现出强大的生成能力,无需FineTuning即可直接应用于文本生成任务。
摘要由CSDN通过智能技术生成

OpenAI在2018年提出来的一个方法——GPT 1.0,GPT 1.0采取预训练+FineTuning两个阶段,它采取Transformer的decoder作为特征抽取器,总共堆叠12个。预训练阶段采用“单向语言模型”作为训练任务,把语言知识编码到decoder里。第二阶段,在第一阶段训练好的模型基础上,通过Finetuning来做具体的NLP任务,迁移能力强。注意在Decoder 中,使用了Masked Self-Attention(不能知道要预测的词),即句子中的每个词都只能对包括自己在内的前面(左侧)所有词进行Attention,这就是单向Transformer。输入为加了【SOS】,但是最后一个词的预测结果不用于语言模型的训练,用于fine-tuning阶段的输入。在这里插入图片描述
1、预训练(无监督样本)
gpt1.0的语言模型是auto regressive language model,由序列的上文推断下文。gpt1.0处理非监督序列文本(𝑥1,𝑥2,…,𝑥𝑚),采用最大似然估计方法来训练,其损失函数为L1(X),不断通过SGD策略调整神经网络的参数,使得神经网络在给定上文的情况下对于下一个字预测的准确率越来越高,损失越来越小。在这里插入图片描述
k为上文预测下文中上文的窗口。其计算过程如下为<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值