前言
毋庸置疑,大模型已经成为推动这一领域进步的核心力量。它们通过处理海量数据,学习复杂的模式和关系,为各种应用提供了强大的智能支持。从语音识别到自动驾驶,再到个性化推荐系统,大模型正在不断地改变我们的生活和工作方式。
然而,对于初学者来说,大模型的世界可能显得既神秘又难以接近。熟练掌握大模型的知识和技能在未来职场将是一项基本要求。无论是为了提升自己的技术能力,还是为了在职场上保持竞争力,了解和应用大模型都十分有必要。
面对市面上学习大模型的图书和课程,很多人不知道如何选择适合自己的书。因此,我为大家整理了一份大模型学习路线图,简单明了无套路,从编程基础入门到大模型应用开发,如果你正在入门,不需要到处 Mark 未经筛选的、五花八门的学习内容,只要从头到尾认真学习这几本书就够了!
这5本大模型书籍已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
一、《大模型应用开发极简入门》
《大模型应用开发极简入门》蛇尾书 :简明扼要,为初学者指出方向。GPT-4、ChatGPT一网打尽,Python大模型,轻松上手!🌟高效学习~系统课程,让你快速掌握AI要点 💡创新思维~培养AI思维,拓展未来视野 💼项目演练~模拟真实场景,提升应用能力 书籍的结尾,不是知识的终点,而是探索的开始。
二、《大模型应用开发:动手做AI Agent》
在人工智能时代,自己来构建一个AI智能体(AI Agent)是一件很酷的事情。
本书以图解的方式从基础概念入手,逐步深入技术原理和应用,以启发式教学帮助读者逐步深入了解Agent的各个方面,而不会感到晦涩难懂。
理论与实践相结合,7个Agent实例,技术路线全面:
本书不仅介绍Agent的理论知识,而且涉及相关的实际应用和案例分析,可以帮助读者更好地理解理论知识在实际问题中的应用。
案例实用,内容丰富,有趣又有料:
本书涵盖Agent的多个主题,包括基本概念、技术原理、应用领域和案例分析等,内容丰富多样,语言风趣幽默,能够满足不同层次读者的需求。
三、《实战AI大模型》
书中介绍了 A大模型的基础知识和关键技术,如Tansformer、BERT、ALBERT、T5、CPT 系列、InstructGPT、ChatGPT、GPT-4、PaLM 和视觉模型等,并详细解释了这些模型的技术原理实际应用以及高性能计算(HPC)技术的使用,如并行计算和内存优化。同时,本书还提供了实践案例,详细介绍了如何使用 Colossa-AI训练各种模型。无论是人工智能初学者还是经验丰富的实践者,都能从本书学到实用的知识和技能,从而在迅速发展的AI领域中找到适合自己的方向。
本书有以下亮点:
1.全面AI知识结构:
从基础理论到最前沿的实践应用,全面覆盖了AI大模型领域,包括Transformer模型、BERT、ALBERT、T5、GPT系列、InstructGPT、RLHF、ChatGPT、GPT-4、Google的PaLM以及视觉模型等关键技术。
2.独创的高效并行系统:
深入解析底层工具Colossal-AI的技术应用,展示如何以最低成本实现大规模AI模型的高效训练和部署。
3.系统的配套实战教程:
提供详细的模型训练步骤和案例分析,让理论知识得以实际应用。提供了丰富的实战教程和步骤详解,使读者能够从理论走向实践,学习如何训练和优化大型AI模型。
4.适合不同层次的读者:
不论是经验丰富的AI实践者,还是刚刚踏入AI世界的初学者,《AI实战大模型》都提供了丰富的知识和技能,帮助读者在AI领域取得成功。
四、《Build a Large Language Model (From Scratch)》(从头开始构建大型语言模型)
这本书讲解从头开始构建大型语言模型的整个过程,包括如何创建、训练和调整大型语言模型。
当前,已在 GitHub 上开源了这本新书对应的代码库。
项目地址
https://github.com/rasbt/LLMs-from-scratch/tree/main?tab=readme-ov-file
对 LLM 来说,指令微调能够有效提升模型性能,因此各种指令微调方法陆续被提出。Sebastian Raschka 发推重点介绍了项目中关于指令微调的部分,其中讲解了:
- 如何将数据格式化为 1100 指令 - 响应对;
- 如何应用 prompt-style 模板;
- 如何使用掩码。
《Build a Large Language Model (From Scratch)》用清晰的文字、图表和示例解释每个阶段,从最初的设计和创建,到采用通用语料库进行预训练,一直到针对特定任务进行微调。
具体来说,新书和项目讲解了如何:
- 规划和编码 LLM 的所有部分;
- 准备适合 LLM 训练的数据集;
- 使用自己的数据微调 LLM;
- 应用指令调整方法来确保 LLM 遵循指令;
- 将预训练权重加载到 LLM 中。
五、《从零开始大模型开发与微调基于PyTorch与ChatGLM》
大模型是深度学习自然语言处理皇冠上的一颗明珠,也是当前AI和NLP研究与产业中最重要的方向之一。本书使用PyTorch 2.0作为学习大模型的基本框架,以ChatGLM为例详细讲解大模型的基本理论、算法、程序实现、应用实战以及微调技术,为读者揭示大模型开发技术。本书配套示例源代码、PPT课件。
《从零开始大模型开发与微调:基于PyTorch与ChatGLM》共18章,内容包括人工智能与大模型、PyTorch 2.0深度学习环境搭建、从零开始学习PyTorch 2.0、深度学习基础算法详解、基于PyTorch卷积层的MNIST分类实战、PyTorch数据处理与模型展示、ResNet实战、有趣的词嵌入、基于PyTorch循环神经网络的中文情感分类实战、自然语言处理的编码器、预训练模型BERT、自然语言处理的解码器、强化学习实战、只具有解码器的GPT-2模型、实战训练自己的ChatGPT、开源大模型ChatGLM使用详解、ChatGLM高级定制化应用实战、对ChatGLM进行高级微调。
《从零开始大模型开发与微调:基于PyTorch与ChatGLM》适合PyTorch深度学习初学者、大模型开发初学者、大模型开发人员学习,也适合高等院校人工智能、智能科学与技术、数据科学与大数据技术、计算机科学与技术等专业的师生作为教学参考书。
这5本大模型书籍已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】