用 Transformers 处理自然语言:创建基于Hugging Face的文本内容处理程序

今天在寻找 Transformer 学习材料的时候,找到了《Natural Language Processing with Transformers》的开源翻译,如果没有买书的同学可以看一下。

地址:https://github.com/hellotransformers/Natural_Language_Processing_with_Transformers

目录

第1章 “Hello,Transformers”

介绍了Transformers并将其置于背景之中。它还提供了一个关于 "Hugging face"生态系统的介绍。

第2章 文本分类

重点是情感分析的任务(一个常见的文本分类问题),并介绍了Trainer API。

第3章 Transformers架构剖析

更深入地探讨Transformer架构,为后面的章节做准备。

第4章 多语言命名实体识别

侧重于识别多语言文本中的实体的任务(一个标记分类问题)。

第5章 文本生成

探讨了Transformers模型生成文本的能力,并介绍了解码策略和度量。

第6章 文本摘要

挖掘了文本摘要的复杂的序列-序列任务,并探讨了用于这一任务的指标。

第7章 问答系统

主要是建立一个基于评论的问题回答系统,并介绍了用Haystack进行检索的情况。

第8章 优化Transformers性能

重点是模型性能。我们将研究意图检测的任务(一种序列分类问题),并探索知识蒸馏、量化和剪枝等技术。

第9章 处理少标签或无标签任务

探讨了在没有大量标签数据的情况下提高模型性能的方法。我们将建立一个GitHub问题标注器,并探索诸如零样本分类和数据增强等技术。

第10章 从零开始训练Transformers

告诉你如何从零开始建立和训练一个用于自动进行Python源代码补全的模型。我们将研究流式数据集和大规模训练,并建立我们自己的标记器(tokenizer)。

第11章 未来发展方向

探讨了Transformers所面临的挑战和该研究领域的一些令人兴奋的新方向。

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

  • 5
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值