好书强推丨HuggingFace自然语言处理详解,快速掌握HuggingFace这本书足够了

今天又来给大家推荐一本HuggingFace的好书,这本《HuggingFace自然语言处理详解》综合性讲解HuggingFace社区提供的工具集datasets和transformers,书中包括最基础的工具集的用例演示,具体的项目实战,以及预训练模型的底层设计思路和实现原理的介绍。

通过本书的学习,读者可以快速掌握HuggingFace工具集的使用方法,掌握自然语言处理项目的一般研发流程,并能研发自己的自然语言处理项目。
在这里插入图片描述


本书将使用最简单浅显的语言,带领读者快速了解HuggingFace工具集的使用方法。通过本书实战项目的学习,读者可以掌握一般的自然语言处理项目的研发流程。通过本书预训练模型底层原理的学习,读者能够知其然也知其所以然,做到融会贯通。

作者简介

李福林:一个在IT领域摸爬滚打十多年的老程序员、培训师,精通多种IT技术,具有软件设计师职称。分享了多部AI技术教程,受到了读者的广泛赞誉。现任职于阳狮集团,担任算法工程师职位。教学风格追求化繁为简,务实而不空谈,课程设计思路清晰,课程演绎说理透彻,对AI领域技术有自己独到的见解。

适宜人群

本书适合有PyTorch编程基础的读者阅读,也适合作为对自然语言处理感兴趣的读者的参考图书!

章节内容

本书分为3篇共14章:工具集基础用例演示篇(第1~6章),详细讲解HuggingFace工具集的基本使用方法;中文项目实战篇(第7~12章),通过几个实战项目演示使用HuggingFace工具集研发自然语言处理项目的一般流程;预训练模型底层原理篇(第13、14章),详细阐述了预训练模型的设计思路和计算原理。

工具集基础用例演示篇

第1章 HuggingFace简介 3
第2章 使用编码工具 6
  • 2.1 编码工具简介 6
  • 2.2 编码工具工作流示意 6
  • 2.3 使用编码工具 8
  • 2.4 小结 15
第3章 使用数据集工具 16
  • 3.1 数据集工具介绍 16
  • 3.2 使用数据集工具 17
  • 3.3 小结 25
第4章 使用评价指标工具 26
  • 4.1 评价指标工具介绍 26
  • 4.2 使用评价指标工具 26
  • 4.3 小结 27
第5章 使用管道工具 28
  • 5.1 管道工具介绍 28
  • 5.2 使用管道工具 28
  • 5.3 小结 35
第6章 使用训练工具 36
  • 6.1 训练工具介绍 36
  • 6.2 使用训练工具 36
  • 6.3 小结 47

中文项目实战篇

第7章 实战任务1:中文情感分类 51
  • 7.1 任务简介 51
  • 7.2 数据集介绍 51
  • 7.3 模型架构 52
  • 7.4 实现代码 53
  • 7.5 小结 64
第8章 实战任务2:中文填空 65
  • 8.1 任务简介 65
  • 8.2 数据集介绍 65
  • 8.3 模型架构 66
  • 8.4 实现代码 67
  • 8.5 小结 79
第9章 实战任务3:中文句子关系推断 81
  • 9.1 任务简介 81
  • 9.2 数据集介绍 81
  • 9.3 模型架构 82
  • 9.4 实现代码 83
  • 9.5 小结 92
第10章 实战任务4:中文命名实体识别 93
  • 10.1 任务简介 93
  • 10.2 数据集介绍 93
  • 10.3 模型架构 95
  • 10.4 实现代码 96
  • 10.5 小结 115
第11章 使用TensorFlow训练 116
  • 11.1 任务简介 116
  • 11.2 数据集介绍 116
  • 11.3 模型架构 116
  • 11.4 实现代码 117
  • 11.5 小结 132
第12章 使用自动模型 133
  • 12.1 任务简介 133
  • 12.2 数据集介绍 134
  • 12.3 模型架构 134
  • 12.4 实现代码 135
  • 12.5 深入自动模型源代码 141
  • 12.6 小结 147

预训练模型底层原理篇

第13章 手动实现Transformer 151
  • 13.1 Transformer架构 151
  • 13.2 注意力 152
  • 13.3 位置编码 157
  • 13.4 MASK 159
  • 13.5 Transformer计算流程 161
  • 13.6 简单翻译任务 165
  • 13.7 两数相加任务 184
  • 13.8 小结 189
第14章 手动实现BERT 190
  • 14.1 BERT架构 190
  • 14.2 数据集处理 191
  • 14.3 PyTorch提供的Transformer工具层介绍 201
  • 14.4 手动实现BERT模型 211
  • 14.5 小结 226

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

本文转自 https://blog.csdn.net/2301_81940605/article/details/141429887?spm=1001.2014.3001.5501,如有侵权,请联系删除。

  • 13
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Huggingface自然语言处理详解——基于BERT中文模型的任务实战》源码是一份用于展示如何使用Huggingface库进行自然语言处理任务的示例代码。该代码基于BERT中文模型,旨在帮助读者理解如何使用该模型进行文本分类、情感分析等任务。 该源码由以下几个部分组成: 1. 导入必要的库:代码开始部分导入了需要使用的Huggingface库,包括`transformers`和`tokenizers`。这些库提供了BERT模型以及相关的处理函数和工具。 2. 数据预处理:接下来,源码介绍了如何进行数据预处理。这包括读取数据集、分词、编码等步骤。具体来说,使用`BertTokenizer`类对文本进行分词,并使用`BertTokenizer.from_pretrained`加载预训练的BERT中文模型。 3. 构建模型:源码构建了一个简单的BERT分类模型,使用`BertForSequenceClassification`类来实现。这个模型有一个BERT编码器和一个用于分类的线性层。 4. 训练模型:通过`Trainer`类,源码进行了模型的训练。在训练过程中,使用了一个训练集和一个验证集,并定义了相应的训练参数,如学习率、批大小等。训练过程中,模型参数逐渐更新,直到达到设定的最大训练轮数。 5. 模型评估:训练完成后,源码进行模型评估。通过计算准确率、查全率、查准率等指标,评估模型在验证集上的性能。 总的来说,《Huggingface自然语言处理详解——基于BERT中文模型的任务实战》源码提供了一个完整的BERT模型应用示例,通过该源码,读者能够了解如何使用Huggingface库中的BERT模型进行中文文本分类任务,并学会了如何进行数据预处理、构建模型、训练和评估模型等操作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值