大模型书籍丨Transformer模型学会有手就行?这本书学了无敌了

在人工智能领域,Transformer架构、大模型是当下最激动人心的话题之一。它们不仅推动了技术的极限,还重新定义了我们与机器交互的方式。Transformer模型最初由Google的研究人员在2017年提出,它是一种基于自注意力机制的深度学习模型,今天就给大家推荐一本学Transformer的一本好书! 就是下面这本:《Transformer自然语言处理实战》
在这里插入图片描述
本书涵盖了Transformer在NLP领域的主要应用。首先介绍Transformer模型和Hugging Face 生态系统。然后重点介绍情感分析任务以及Trainer API、Transformer的架构,并讲述了在多语言中识别文本内实体的任务,以及Transformer模型生成文本的能力,还介绍了解码策略和度量指标。

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

作者简介

Lewis Tunstall是Hugging Face机器学习工程师,致力于为NLP社区开发实用工具,并帮助人们更好地使用这些工具。

Leandro von Werra是Hugging Face机器学习工程师,致力于代码生成模型的研究与社区推广工作。

Thomas Wolf是Hugging Face首席科学官兼联合创始人,他的团队肩负着促进AI研究和普及的使命。
在这里插入图片描述

书籍目录

  • 版权信息 3
  • O’Reilly Media, Inc.介绍 2
  • 业界评论 5
  • 本书赞誉 2
  • 序 2
  • 前言 2
  • 致谢 18

第1章 欢迎来到Transformer的世界 2

  • 1.1 编码器-解码器框架 23
  • 1.2 注意力机制 26
  • 1.3 NLP的迁移学习 29
  • 1.4 Hugging Face Transformers库:提供规范化接口 34
  • 1.5 Transformer应用概览 35
  • 1.6 Hugging Face生态系统 42
  • 1.7 Transformer的主要挑战 47
  • 1.8 本章小结 49

第2章 文本分类 2

  • 2.1 数据集 53
  • 2.2 将文本转换成词元 63
  • 2.3 训练文本分类器 73
  • 2.4 本章小结 96

第3章 Transformer架构剖析 2

  • 3.1 Transformer架构 100
  • 3.2 编码器 104
  • 3.3 解码器 123
  • 3.4 认识Transformer 127
  • 3.5 本章小结 136

第4章 多语言命名实体识别 2

  • 4.1 数据集 140
  • 4.2 多语言Transformer 146
  • 4.3 多语言词元化技术 148
  • 4.4 命名实体识别中的Transformers 152
  • 4.5 自定义Hugging Face Transformers库模型类 155
  • 4.6 NER的词元化 162
  • 4.7 性能度量 166
  • 4.8 微调XLM-RoBERTa 168
  • 4.9 错误分析 171
  • 4.10 跨语言迁移 180
  • 4.11 用模型小部件进行交互 188
  • 4.12 本章小结 189

第5章 文本生成 2

  • 5.1 生成连贯文本的挑战 194
  • 5.2 贪婪搜索解码 198
  • 5.3 束搜索解码 203
  • 5.4 采样方法 208
  • 5.5 top-k和核采样 211
  • 5.6 哪种解码方法最好 215
  • 5.7 本章小结 216

第6章 文本摘要 2

  • 6.1 CNN/DailyMail数据集 219
  • 6.2 文本摘要pipeline 221
  • 6.3 比较不同的摘要 226
  • 6.4 度量生成文本的质量 229
  • 6.5 在CNN/DailyMail数据集上评估PEGASUS 237
  • 6.6 训练摘要模型 240
  • 6.7 本章小结 249

第7章 构建问答系统 2

  • 7.1 构建基于评论的问答系统 253
  • 7.2 评估并改进问答pipeline 282
  • 7.3 生成式问答 301
  • 7.4 本章小结 305

第8章 Transformer模型调优 2

  • 8.1 以意图识别为例 309
  • 8.2 创建性能基准 312
  • 8.3 通过知识蒸馏减小模型大小 319
  • 8.4 利用量化技术使模型运算更快 337
  • 8.5 基准测试量化模型 345
  • 8.6 使用ONNX和ONNX Runtime进行推理优化 346
  • 8.7 使用权重剪枝使模型更稀疏 354
  • 8.8 本章小结 360

第9章 零样本学习和少样本学习 2

  • 9.1 构建GitHub issue标记任务 365
  • 9.2 基线模型 376
  • 9.3 零样本学习 381
  • 9.4 少样本学习 393
  • 9.5 利用无标注数据 417
  • 9.6 本章小结 427

第10章 从零训练Transformer模型 2

  • 10.1 如何寻找大型数据集 431
  • 10.2 构建词元分析器 445
  • 10.3 从零训练一个模型 461
  • 10.4 结果与分析 481
  • 10.5 本章小结 487

第11章 未来发展趋势 2

  • 11.1 Transformer的扩展 490
  • 11.2 其他应用领域 501
  • 11.3 多模态的Transformer 510
  • 11.4 继续前行的建议 521

关于作者 2

关于封面 2

推荐阅读 2

书籍内容:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

  • 13
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值