自然语言处理:基于预训练模型的方法(全彩)一本书读懂ChatGPT背后核心技术,详解大规模预训练语言模型

前言

揭秘聊天机器人ChatGPT背后的核心技术:大规模预训练语言模型、GPT,详解预训练语言模型的基础知识、模型设计、代码实现和前沿进展

涵盖常见预训练模型的详细分析包括:XLNet、RoBERTa、ALBERT、ELECTRA、MacBERT、Transformer-XL、Reformer、Longforme、BigBird、DistilBERT、TinyBERT、MobileBERT、TextBrewer、BART、UniLM、T5、GPT-3、VideoBERT、VL-BERT、DALL·E、ALIGN……

本书得到欧洲科学院外籍院士、清华大学人工智能研究院常务副院长孙茂松教授作序。

在这里插入图片描述

创新工场首席科学家、微软亚洲研究院原副院长、中国计算机学会副理事长、国际计算语言学会(ACL)(2019年)主席周明老师,字节跳动人工智能实验室总监李航教授,科大讯飞执行总裁胡郁老师倾力推荐。

本书从基础知识、预训练词向量、预训练模型等几大方面全面系统地介绍了预训练语言模型技术。
书中为代表性的模型提供了规范的示例代码及实践案例。

下载当前版本: 完整PDF书籍链接获取,可以V扫描下方二维码免费领取👇👇👇

目录:

第1 章绪论

在这里插入图片描述

第2 章自然语言处理基础

在这里插入图片描述

第3 章基础工具集与常用数据集

在这里插入图片描述

第4 章自然语言处理中的神经网络基础

在这里插入图片描述

第5 章静态词向量预训练模型

在这里插入图片描述

第6 章动态词向量预训练模型

在这里插入图片描述

第7 章预训练语言模型

在这里插入图片描述

第8 章预训练语言模型进阶

在这里插入图片描述

第9 章多模态融合的预训练模型

在这里插入图片描述

下载当前版本: 完整PDF书籍链接获取,可以V扫描下方二维码免费领取👇👇👇

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值