Task04 学习GPT

前言

GPT-2是一个巨大的, 基于Transformer的语言模型, 它是在一个巨大的数据集上训练的

1 GPT2和语言模型

1.1 什么是语言模型

什么语言模型?
     GPT-2 基本上就是键盘应用程序中预测下一个词的功能

1.2 语言模型的Transformer

Transformer 模型是由Encoder 和 Decoder 组成的
在这里插入图片描述

1.3 与BERT的一个不同之处

GPT-2 是使用Transformer的Decoder 模块构建的
BERT 是使用Transformer 的Encoder 模块构建的

1.4 Transformer 模块的进化

(1) Encoder模块
原始的接受特定长度的输入---->可以填充序列的其余部分
(2) Decoder 模块
在这里插入图片描述
会屏蔽未来的token

1.5 语言模型入门: 了解GPT2

在这里插入图片描述能够处理1024个token

1.6 深入理解GPT2 的更多细节

每一行都是词的embedding
在这里插入图片描述
token embedding------>token +position-------->
Self-Attention

1.7 GPT2总结

感觉还是像天书一样[捂脸]

2 可视化 Self- Attention

在这里插入图片描述

2.1 Self-Attention

3个步骤
1 为每个路径创建Query Key Value矩阵
2 对于每个输入的token , 使用它的Query 向量为所有其他的Key 向量进行打分
3 将Value向量乘以它们对应的分数后求和

2.2 图解 Masked Self_attention在这里插入图片描述

2.2 GPT2 的Self-Attention

评价模型:每次处理一个token
在这里插入图片描述

2.3 GPT2 全连接神经网络

用于处理Self Attention 层的输出, 这个输出的表示包含了合适的上下文 全连接神经网络由两层组成
全连接层:
在这里插入图片描述

3 语言模型之外

3.1 机器翻译

机器翻译 Encoder不是必须的

3.2 生成摘要

文章的实际开头部分用作训练数据的标签
在这里插入图片描述

3.3 迁移学习

在数据量有限制时 ,一个只有Decoder的Transformer 比预训练的Encoder-Decoder Transformer 能够获得更好的结果

3.4 音乐生成

音乐建模就像语言建模一样 ,只需要让模型以无监督的方式学习音乐 ----->采样输出

4 总结

懵~~ 越发感觉到算法里图像,NLP,推荐系统,的三大方向了,每一个都是巨坑

参考

Datawhale基于transformers的自然语言处理(NLP入门)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

数据闲逛人

谢谢大嘎喔~ 开心就好

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值