前言
揭秘聊天机器人ChatGPT背后的核心技术:大规模预训练语言模型、GPT,详解预训练语言模型的基础知识、模型设计、代码实现和前沿进展
涵盖常见预训练模型的详细分析包括:XLNet、RoBERTa、ALBERT、ELECTRA、MacBERT、Transformer-XL、Reformer、Longforme、BigBird、DistilBERT、TinyBERT、MobileBERT、TextBrewer、BART、UniLM、T5、GPT-3、VideoBERT、VL-BERT、DALL·E、ALIGN……
本书得到欧洲科学院外籍院士、清华大学人工智能研究院常务副院长孙茂松教授作序。
创新工场首席科学家、微软亚洲研究院原副院长、中国计算机学会副理事长、国际计算语言学会(ACL)(2019年)主席周明老师,字节跳动人工智能实验室总监李航教授,科大讯飞执行总裁胡郁老师倾力推荐。
本书从基础知识、预训练词向量、预训练模型等几大方面全面系统地介绍了预训练语言模型技术。
书中为代表性的模型提供了规范的示例代码及实践案例。
下载当前版本: 完整PDF书籍链接获取,可以V扫描下方二维码免费领取👇👇👇
目录:
第1 章绪论
第2 章自然语言处理基础
第3 章基础工具集与常用数据集
第4 章自然语言处理中的神经网络基础
第5 章静态词向量预训练模型
第6 章动态词向量预训练模型
第7 章预训练语言模型
第8 章预训练语言模型进阶
第9 章多模态融合的预训练模型
下载当前版本: 完整PDF书籍链接获取,可以V扫描下方二维码免费领取👇👇👇