【好书分享第十期】大模型应用解决方案_基于ChatGPT和GPT-4等Transformer架构的自然语言处理(文末送书)


📑前言

在不到4 年的时间里,Transformer 模型以其强大的性能和创新的思想,迅速在NLP 社区崭露头角,打破了过去30 年的记录。BERT、T5 和GPT 等模型现在已成为计算机视觉、语音识别、翻译、蛋白质测序、编码等各个领域中新应用的基础构件。因此,斯坦福大学最近提出了“基础模型”这个术语,用于定义基于巨型预训练Transformer 的一系列大型语言模型。所有这些进步都归功于一些简单的想法。
《基于GPT-3、ChatGPT、GPT-4等Transformer架构的自然语言处理》可作为所有对Transformer 工作原理感兴趣的人的参考书。作者在理论和实践两方面都做出了出色的工作,详细解释了如何逐步使用Transformer。阅读完本书后,你将能使用这一最先进的技术集合来增强你的深度学习应用能力。本书在详细介绍BERT、RoBERTa、T5 和GPT-3 等流行模型前,先讲述了Transformer 的架构以便为你的学习奠定坚实基础。本书还讲述了如何将Transformer 应用于许多用例,如文本摘要、图像标注、问答、情感分析和假新闻分析等。
如果你对这些主题感兴趣,那么本书绝对是值得一读的。

一、内容简介

Transformer正在颠覆AI领域。市面上有这么平台和Transformer模型,哪些 你的需求?
将引领你进入Transformer的世界,将讲述不同模型和平台的优势,指出如何消除模型的缺点和问题。本书将引导你使用Hugging Face从头开始预训练一个RoBERTa模型,包括构建数据集、定义数据整理器以及训练模型等。
《基于GPT-3、ChatGPT、GPT-4等Transformer架构的自然语言处理》分步展示如何微调GPT-3等预训练模型。研究机器翻译、语音转文本、文本转语音、问答等NLP任务,并介绍解决NLP难题的技术,甚至帮助你应对假新闻焦虑(详见第13章)。
从书中可了解到,诸如OpenAI的高级平台将Transformer扩展到语言领域、计算机视觉领域,并允许使用DALL-E 2、ChatGPT和GPT-4生成代码。通过本书,你将了解到Transformer的工作原理以及如何实施Transformer来决NLP问题。
主要内容
• 了解用于解决复杂语言问题的新技术
• 将GPT-3与T5、GPT-2和基于BERT的Transformer的结果进行对比
• 使用TensorFlow、PyTorch和GPT-3执行情感分析、文本摘要、非正式语言分析、机器翻译等任务
• 了解ViT和CLIP如何标注图像(包括模糊化),并使用DALL-E从文本生成图像
• 学习ChatGPT和GPT-4的高级提示工程机制

二、作者简介

Denis Rothman 毕业于法国巴黎索邦大学和狄德罗大学,设计了首批获得专利的编码和嵌入系统,编写了首批获得专利的AI 认知机器人和机器人。他的职业生涯始于为Moët et Chandon 提供NLP(自然语言处理)聊天机器人,并为空中客车公司(前身为Aerospatiale)提供AI 战术防御优化器。此后,Denis 为IBM 和奢侈品牌开发了AI资源优化器,并最终发展为在全球范围内使用的APS(高级规划和调度)解决方案。

三、目录

第1 章 Transformer 模型介绍 1
1.1 Transformer 的生态系统 2
1.1.1 工业4.0 2
1.1.2 基础模型 3
1.2 使用Transformer 优化NLP模型 6
1.3 我们应该使用哪些资源 8
1.3.1 Transformer 4.0 无缝API 的崛起 9
1.3.2 选择即用型API驱动库 11
1.3.3 选择Transformer模型 11
1.3.4 工业4.0 AI 专家的技能要求 12
1.4 本章小结 13
1.5 练习题 14
第2 章 Transformer 模型架构入门 15
2.1 Transformer 的崛起:注意力就是一切 16
2.1.1 编码器堆叠 17
2.1.2 解码器堆叠 37
2.2 训练和性能 40
2.3 Hugging Face 的Transformer模型 40
2.4 本章小结 41
2.5 练习题 42
第3 章 微调BERT 模型 43
3.1 BERT 的架构 44
3.2 微调BERT 50
3.2.1 选择硬件 50
3.2.2 安装使用BERT 模型必需的Hugging Face PyTorch接口 50
3.2.3 导入模块 50
3.2.4 指定Torch 使用CUDA 51
3.2.5 加载数据集 51
3.2.6 创建句子、标注列表以及添加[CLS]和[SEP]词元 53
3.2.7 激活BERT 词元分析器 53
3.2.8 处理数据 54
3.2.9 防止模型对填充词元进行注意力计算 54
3.2.10 将数据拆分为训练集和验证集 54
3.2.11 将所有数据转换为torch张量 55
3.2.12 选择批量大小并创建迭代器 55
3.2.13 BERT 模型配置 56
3.2.14 加载Hugging Face BERTuncased base 模型 57
3.2.15 优化器分组参数 59
3.2.16 训练循环的超参数 59
3.2.17 训练循环 60
3.2.18 对训练进行评估 61
3.2.19 使用测试数据集进行预测和评估 62
3.2.20 使用马修斯相关系数进行评估 63
3.2.21 各批量的分数 63
3.2.22 整个数据集的马修斯评估 64
3.3 本章小结 64
3.4 练习题 65
第4 章 从头开始预训练RoBERTa模型 66
4.1 训练词元分析器和预训练Transformer 67
4.2 从头开始构建Kantai BERT 68
4.2.1 步骤1:加载数据集 68
4.2.2 步骤2:安装HuggingFace transformers 库 69
4.2.3 步骤3:训练词元分析器 70
4.2.4 步骤4:将词元化结果保存到磁盘上 72
4.2.5 步骤5:加载预训练词元分析器文件 73
4.2.6 步骤6:检查训练用机器的配置:GPU 和CUDA 74
4.2.7 步骤7:定义模型的配置 75
4.2.8 步骤8:为Transformer模型加载词元分析器 75
4.2.9 步骤9:从头开始初始化模型 75
4.2.10 步骤10:构建数据集 79
4.2.11 步骤11:定义数据整理器 80
4.2.12 步骤12:初始化训练器 80
4.2.13 步骤13:预训练模型 81
4.2.14 步骤14:将最终模型(+词元分析器+配置)保存到磁盘 81
4.2.15 步骤15:使用FillMask-Pipeline 进行语言建模 82
4.3 后续步骤 83
4.4 本章小结 83
4.5 练习题 84
第5 章 使用Transformer 处理下游NLP 任务 85
5.1 Transformer 的转导与感知 86
5.1.1 人类智能栈 86
5.1.2 机器智能栈 88
5.2 Transformer 性能与人类基准 89
5.2.1 评估模型性能的度量指标 89
5.2.2 基准任务和数据集 90
5.2.3 定义SuperGLUE 基准任务 94
5.3 执行下游任务 99
5.3.1 语言学可接受性语料库(CoLA) 99
5.3.2 斯坦福情绪树库(SST-2) 100
5.3.3 Microsoft 研究释义语料库(MRPC) 101
5.3.4 Winograd 模式 102
5.4 本章小结 102
5.5 练习题 103
第6 章 机器翻译 104
6.1 什么是机器翻译 105
6.1.1 人类转导和翻译 105
6.1.2 机器转导和翻译 106
6.2 对WMT 数据集进行预处理 106
6.2.1 对原始数据进行预处理 107
6.2.2 完成剩余的预处理工作 109
6.3 用BLEU 评估机器翻译 112
6.3.1 几何评估 112
6.3.2 平滑技术 114
6.4 Google 翻译 115
6.5 使用Trax 进行翻译 116
6.5.1 安装Trax 116
6.5.2 创建原始Transformer模型 117
6.5.3 使用预训练权重初始化模型 117
6.5.4 对句子词元化 117
6.5.5 从Transformer解码 118
6.5.6 对翻译结果去词元化并展示 118
6.6 本章小结 119
6.7 练习题 119
第7 章 GPT-3 120
7.1 具有GPT-3 Transformer模型的超人类NLP 121
7.2 OpenAI GPT Transformer模型的架构 122
7.2.1 10 亿参数Transformer模型的兴起 122
7.2.2 Transformer 模型扩大的历史 123
7.2.3 从微调到零样本 125
7.2.4 解码器堆叠 126
7.2.5 GPT 引擎 127
7.3 使用GPT-2 进行文本补全 127
7.4 训练自定义GPT-2 语言模型 129
7.5 使用OpenAI GPT-3 131
7.5.1 在线运行NLP 任务 131
7.5.2 GPT-3 引擎入门 133
7.6 比较GPT-2 和GPT-3 的输出 138
7.7 微调GPT-3 139
7.7.1 准备数据 139
7.7.2 微调GPT-3 140
7.8 工业4.0 AI 专家所需的技能 141
7.9 本章小结 142
7.10 练习题 143
第8 章 文本摘要(以法律和财务文档为例) 144
8.1 文本到文本模型 145
8.1.1 文本到文本Transformer模型的兴起 145
8.1.2 使用前缀而不是任务格式 146
8.1.3 T5 模型 147
8.2 使用T5 进行文本摘要 149
8.2.1 Hugging Face 149
8.2.2 初始化T5-large模型 150
8.2.3 使用T5-large 进行文本摘要 153
8.3 使用GPT-3 进行文本摘要 158
8.4 本章小结 159
8.5 练习题 160
第9 章 数据集预处理和词元分析器 161
9.1 对数据集进行预处理和词元分析器 162
9.1.1 最佳实践 162
9.1.2 Word2Vec 词元化 165
9.2 深入探讨场景4 和场景5 174
9.2.1 使用GPT-2 生成无条件样本 174
9.2.2 生成条件样本 176
9.2.3 控制词元化数据 177
9.3 GPT-3 的NLU 能力 180
9.4 本章小结 181
9.5 练习题 181
第10 章 基于BERT 的语义角色标注 183
10.1 SRL 入门 184
10.1.1 语义角色标注的定义 184
10.1.2 使用基于BERT 的预训练模型进行SRL 185
10.2 基于BERT 模型的SRL
实验 186
10.3 基本示例 187
10.3.1 示例1 187
10.3.2 示例2 189
10.3.3 示例3 191
10.4 复杂示例 193
10.4.1 示例4 193
10.4.2 示例5 195
10.4.3 示例6 196
10.5 SRL 的能力范围 197
10.5.1 谓语分析的局限性 198
10.5.2 SRL 局限性的根本原因 199
10.6 本章小结 200
10.7 练习题 201
第11 章 使用Transformer 进行问答 202
11.1 方法论 203
11.2 方法0:试错法 204
11.3 方法1:NER 206
11.4 方法2:SRL 211
11.4.1 使用ELECTRA 进行问答 213
11.4.2 项目管理约束 214
11.4.3 通过SRL 查找问题 215
11.5 后续步骤 219
11.5.1 使用RoBERTa 模型探索Haystack 220
11.5.2 使用GTP-3 引擎探索问答 221
11.6 本章小结 222
11.7 练习题 222
第12 章 情绪分析 224
12.1 入门:使用Transformer进行情绪分析 225
12.2 斯坦福情绪树库(SST) 225
12.3 通过情绪分析预测客户行为 229
12.3.1 使用DistilBERT 进行情绪分析 229
12.3.2 使用Hugging Face 的其他模型进行情绪分析 231
12.4 使用GPT-3 进行情绪分析 235
12.5 工业4.0 依然需要人类 236
12.5.1 使用SRL 进行调查 237
12.5.2 使用Hugging Face进行调查 238
12.5.3 使用GPT-3 playground进行调查 240
12.6 本章小结 242
12.7 练习题 243
第13 章 使用Transformer 分析假新闻 244
13.1 对假新闻的情绪反应 245
13.2 理性处理假新闻的方法 250
13.2.1 定义假新闻解决路线图 251
13.2.2 枪支管控辩论 252
13.2.3 美国前总统特朗普的推文 260
13.3 在我们继续之前 262
13.4 本章小结 262
13.5 练习题 263
第14 章 可解释AI 264
14.1 使用BertViz 可视化Transformer 265
14.2 LIT 268
14.2.1 PCA 269
14.2.2 运行LIT 269
14.3 使用字典学习可视化Transformer 271
14.3.1 Transformer 因子 271
14.3.2 LIME 272
14.3.3 可视化界面 273
14.4 探索我们无法访问的模型 276
14.5 本章小结 277
14.6 练习题 278
第15 章 从NLP 到计算机视觉 279
15.1 选择模型和生态系统 280
15.2 Reformer 281
15.3 DeBERTa 283
15.4 Transformer 视觉模型 285
15.4.1 ViT – Vision Transformer 285
15.4.2 CLIP 289
15.4.3 DALL-E 294
15.5 不断扩大的模型宇宙 297
15.6 本章小结 298
15.7 练习题 299
第16 章 AI 助理 300
16.1 提示工程 301
16.1.1 具有有意义上下文的非正式英语 302
16.1.2 转喻和多义 303
16.1.3 省略 303
16.1.4 模糊上下文 304
16.1.5 引入传感器 305
16.1.6 有传感器但没有可见上下文 305
16.1.7 没有上下文的正式英语会话 306

四、摘录

Transformer 是自然语言理解(Natural Language Understanding,NLU)的游戏规则改变者,NLU 是自然语言处理(Natural Language Processing,NLP)的一个子集。NLU已成为全球数字经济中AI 的支柱之一。
Transformer 模型标志着AI 新时代的开始。语言基础已成为语言建模、聊天机器人、个人助理、问答、文本摘要、语音转文本、情绪分析、机器翻译等的支柱。社交网络正在取代实体接触,电子商务正在取代实体购物,数字报纸、流媒体正在取代实体剧院,远程文档咨询正在取代实体访问,远程工作正在取代现场办公,我们正在见证数百个领域的类似趋势。如果没有理解AI 语言,社会上使用网络浏览器、流媒体服务和任何涉及语言的数字活动都将非常困难。我们的社会从物理信息到海量数字信息的范式转变迫使AI 进入一个新时代。AI 已经发展到数十亿级参数模型,以应对万亿级单词数据集的挑战。
Transformer 架构具有革命性和颠覆性,它打破了过往RNN 和CNN 的主导地位。BERT 和GPT 模型放弃了循环网络层,使用自注意力机制取而代之。Transformer 模型优于RNN 和CNN。这是AI 历史上划时代的重大变化。
Transformer 编码器和解码器包含单独训练的注意力头(attention head),并能使用GPU、TPU 等尖端硬件进行并行化。注意力头可以使用GPU 运行,从而为十亿级参数模型和即将出现的万亿级参数模型打开大门。OpenAI 在一台具有10 000个GPU和285 000 个CPU 内核的超级计算机上训练出具有1750 亿个参数的GPT-3 Transformer 模型。
随着数据量的不断增长,训练AI 模型需要的规模也越来越大。Transformer 模型为参数驱动的AI 开启了新时代。我们需要大量参数进行学习,才能学习到由数以亿计的单词组合的数据集。
Google BERT 和OpenAI GPT-3 等Transformer 模型将AI 提升到另一个层次。
Transformer 可以执行数百项它们没有接受过训练的NLP 任务。
Transformer 还可通过将图像视为单词序列来学习图像分类和重构图像。本书将介绍尖端的计算机视觉Transformer,如Vision Transformer(ViT)、CLIP 和DALL-E。
基础模型是指经过充分训练的、不需要微调即可执行数百项任务的Transformer模型。这种规模的基础模型是我们在这个海量信息时代所需的工具。
想想每天需要多少人来控制社交网络上发布的数十亿条消息的内容,以便在提取所包含的信息之前确定是否合法和合乎道德。
想想每天在网络上发布的数百万页文字需要多少人来翻译。或者想象一下,如果要人工对每分钟多达数百万条消息进行控制需要多少人力资源!
想想将每天在网络上发布的所有大量流媒体转换为文字需要多少人力资源。想想为不断出现的数十亿幅在线图像生成AI 图像字幕需要多少人力资源。

粉丝福利

参与方式:关注博主+点赞+收藏+评论,(每人最多评论三次)
评论:AI引领科技前沿
本次送书 1~2【取决于阅读量,阅读量越多,送的越多】
活动时间至:2024-5-25 18:00
活动结束后,会私信中奖粉丝的,各位注意查看私信哦!

  • 84
    点赞
  • 61
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 128
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 128
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

屿小夏

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值