5分钟速通大语言模型(LLM)的发展与基础知识

这一章节呢,主要是为大家介绍一下AI大模型相关的一些背景和基础知识。大家可以看到这一章节的标题是 “5分钟速通大语言模型(LLM)的发展与基础知识” ,相较于唬人的标题,大家肯定更关心的是接下来主要讲哪些内容呢?

接下来会有以下几个章节内容,第一就是带领大家了解一下大语言模型的快速发展,为大家介绍一下国内主要的 LLM 的特点,以及AIGC整个产业的拆解,包括一下专业的常见名词,最后会和大家讲一下应用开发者在目前这样一个大背景下的机会。所以,先来看一下 大语言模型的发展一览 吧。

大语言模型的发展一览

我们都知道,大语言模型(Large Language Model),简称是 LLM 。为什么说是 AI 2.0时代 呢?这是因为在 LLM 出现之前,我们将之前的时间归结为 AI 1.0时代 。这个时候主要的各类 NLP工程 都是一个特点,也就是通用性比较差。整个AI领域终极的形态,也是很多AI领域创业者都希望能够达到的一个形态,就是AGI,即所谓的通用智能。

AI 1.0 VS AI 2.0

AI 1.0时代的特点就是单任务的智能AI,比如说27年前的IBM公司研制的人工智能****系统 - 深蓝,它的特点就是只会下国际象棋,通过深度学习了很多国际象棋的套路后,战胜了国际象棋大师 加里·卡斯帕罗夫。这样的人工智能,你如果向它提问超过国家象棋之外的内容,它绝对是不知道的,这就是单任务智能AI的典型特点。

大语言模型的特点是什么?最显著的特点之一就是可以通过语言与我们进行交互,甚至可以通过自然语言的方式拓展到更多的场景,极大的可能会通过这种方式在未来发展出像AGI这样的通用型智能,也就是向我们一样的拥有智慧的智能体。

AI1.0 这里就不做过多的介绍了,都是一些 NLP 相关的东西,直接从 AI 2.0 开始介绍 大语言模型的发展 就好。

大模型发展 · 词向量

大语言模型从技术层面来分析的话,基本上也是一个从点到面的过程。最早出现的是名为 “词向量” 的技术,就是将自然语言的词语通过 向量 来表示,“向量” 是一个数学概念,就相当于是每一个词在 向量空间 里有一个唯一的坐标一样。就如同下图中的 “apple” 这个词在向量空间中表现出来的就是 1 0 0 0 0 这样的一个坐标,而 “elephant” 这个词的向量空间坐标就与 “apple” 有所区别,它的位置是 0 0 0 0 1 。这样的好处就在于,可以将我们现实生活中的自然语言通过数学语言的方式描述出来,通过精准的坐标可以找到位置。但是需要注意的是,词向量无法表达词语与词语之间的关联关系,另一个就是效率上也存在着一定的问题。

大模型发展 · 词嵌入

在 “词向量” 的基础之上,又出现了 “词嵌入技术” ,也就是 “embedding” ,在后续的实践项目中也会有使用到。词嵌入技术本质上其实还是词向量,其实就是对语言模型进行预训练,通过对现有的大量文章进行训练,让原本的词向量具备语言信息。

通过一些语言的训练方式,经过预训练之后的词向量,在向量空间上优惠诞生额外的信息,就会有效的提升模型的效果,而且可以在后续的其他任务空间做迁移,这就是大语言模型的预训练的初始原型。

在下图中,我们可以看到 embedding 中的 “dog” 和 “cat” ,通过坐标的方式做了标注,可以具备 低维向量 的表示,还可以具备语义相似、空间向量相近的特性。也就是说 “dog” 和 “cat” 通过大量的文章资料训练后,发现它们都可以归类到 “宠物”,那么这两个坐标点在向量空间中的坐标就是非常接近的,两者同属于宠物的 “向量域” ,而 “tree” 和 “flower” 就同属于是植物的 “向量域” 。

所以,我们就可以看到 “词向量” 实际上就是在 “低维向量” 中表示语义相似的向量空间、相近的一个特性。除此之外,词向量还可以进行迁移学习,将任务迁移到其他任务当中去。前文中介绍到的 IBM公司研制的 人工智能系统 - 深蓝 ,就是一个活生生的例子,利用词向量的技术将学习国际象棋的技能进行迁移。

大模型发展 · 句向量与全文向量

“词嵌入” 之后呢,就出现了 “句向量”“全文向量” ,就是根据前文信息去分析下文,或者是根据本文翻译成另一种语言,也就是说可以有效的处理时序性的序列数据。

所以,我们就可以看到如下图中的例子,可以将 “what time is it ?” 这样的一个句子通过一层一层的神经网络按照 “waht”、“time”、“is”、“it” 、“?” 这样的顺序做上下文的理解。

除此之外,“句向量” 还可以做到 短时记忆选择性 的遗忘,主要应用在 文本生成、 语音识别图像描述 等场景,这个时候其实已经可以做到常见的AI识别了。

大模型发展 · 理解上下文

再往后发展,也就到了 理解全文上下文 的阶段了,理解上下文这种模式的代表作就是 BERT大模型 。这个阶段其实已经可以完成类似完形填空这样的任务了,就是根据上下文的理解完成代词。比如说代表男性的 “他” ,代表女性的 “她” ,代表第三方非人的 “它” ,这个时候也就说所谓的 “真·预训练” 模型时代开启了。

这个时候的显著特点之一就是支持 “并行训练” ,和早期的 RNN、CNN 模型的只能通过一层一层的方式进行训练相比,也就是 RNN、CNN 在处理 “waht time is it ?” 这样的训练的时候,是一层一层处理完前一个任务之后,才会处理后一个任务。所以这种依托 “并行训练” 实现的大模型就替代了 RNN、CNN 这样的神经网络,功能上更加的强大,可以实现类似语义识别的能力了。

大模型发展 · ChatGPT的出现

2023年,OPenAI 的 ChatGPT 的出现,AI领域正式进入到超大模型和大模型统一的时代。这里的起始点,其实是从谷歌的 T5 模型开始的,ChatGPT中的 “T” 代表的就是谷歌的Transformer(转换器)

ChatGPT 引入的是 Prompt 这样的范式进行模型的训练,也就是说将 提示词(Prompt) 告诉模型,将答案训练出来,不停的通过这样的模式来持续的训练模型。当我们通过 “提示词”、“Prompt” 的方式对 ChatGPT进行引导,从而得出对应的答案。

到了这个时候,以 ChatGPT 和 GPT4 为代表的大模型,效果非常的惊艳,最新的成果就是目前的大模型都开始支持了 多模态 。也就是说开启 文生图、生成文字、生成图片、甚至生成视频 的时代,通过基于 Prompt 为范式训练大模型的方式,将这个标准给公布了出来。

前文介绍的,整个的大模型的发展是一个由点到面过程。其实就是一开始的 词向量 的技术,发展到了 神经网络 ,再到单线、并行训练,最后一直到现在这样的大规模、超大规模的训练集,最终呈现出来的就是现在大家所熟知、能够看到的一个大模型发展的一个结果。

如何系统的去学习大模型LLM ?

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来

所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

在这里插入图片描述

四、AI大模型商业化落地方案

img

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。
  • 内容
    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
      - L1.4.1 知识大模型
      - L1.4.2 生产大模型
      - L1.4.3 模型工程方法论
      - L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
  • 内容
    • L2.1 API接口
      - L2.1.1 OpenAI API接口
      - L2.1.2 Python接口接入
      - L2.1.3 BOT工具类框架
      - L2.1.4 代码示例
    • L2.2 Prompt框架
      - L2.2.1 什么是Prompt
      - L2.2.2 Prompt框架应用现状
      - L2.2.3 基于GPTAS的Prompt框架
      - L2.2.4 Prompt框架与Thought
      - L2.2.5 Prompt框架与提示词
    • L2.3 流水线工程
      - L2.3.1 流水线工程的概念
      - L2.3.2 流水线工程的优点
      - L2.3.3 流水线工程的应用
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
  • 内容
    • L3.1 Agent模型框架
      - L3.1.1 Agent模型框架的设计理念
      - L3.1.2 Agent模型框架的核心组件
      - L3.1.3 Agent模型框架的实现细节
    • L3.2 MetaGPT
      - L3.2.1 MetaGPT的基本概念
      - L3.2.2 MetaGPT的工作原理
      - L3.2.3 MetaGPT的应用场景
    • L3.3 ChatGLM
      - L3.3.1 ChatGLM的特点
      - L3.3.2 ChatGLM的开发环境
      - L3.3.3 ChatGLM的使用示例
    • L3.4 LLAMA
      - L3.4.1 LLAMA的特点
      - L3.4.2 LLAMA的开发环境
      - L3.4.3 LLAMA的使用示例
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
  • 内容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

学习计划:

  • 阶段1:1-2个月,建立AI大模型的基础知识体系。
  • 阶段2:2-3个月,专注于API应用开发能力的提升。
  • 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
  • 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的所有 ⚡️ 大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

全套 《LLM大模型入门+进阶学习资源包↓↓↓ 获取~

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值