科普神文,一次性讲透AI大模型的核心概念_科普神文,一次性讲透ai大模型的核心概念

在这里插入图片描述

令牌,向量,嵌入,注意力,这些AI大模型名词是否一直让你感觉熟悉又陌生,如果答案肯定的话,那么朋友,今天这篇科普神文不容错过。我将结合大量示例及可视化的图形手段,为你由浅入深一次性讲透AI大模型的核心概念。

引言

随着科技公司及国际竞争的不断推进,AI大模型已经越来越多融入我们的生活。作为一个普通人或许不需要研究高深的AI算法,但想在这次AI浪潮中不被抛弃,必须对LLM原理有一个基本的理解。

理解LLM(即Large Language Model,大语言模型)如何生成文本也就意味着理解这些模型为什么是如此通用的认知引擎——以及它们还能帮助创造什么。

令牌化和向量化(Token&Vectorization)

首先,让我们从令牌化和向量化开始,这一部分内容将为大家解开AI大模型的第一层面纱-AI大模型时如何理解人类语言的。通过这一部分的讲解也将为大家构建AI大模型的基础数学观

  • 为了读懂人类提问和输出回答,LLM必须先将单词翻译成它们能理解的语言。

在这里插入图片描述

  • 首先,一块文字被分割成令牌(tokens) ——可以编码的基本单位。令牌通常代表词的片段,但我们会将每个完整的词变成一个令牌。

在这里插入图片描述

  • 为了掌握一个词的意思,例如work,LLM首先通过使用大量训练数据观察它的上下文,注意它的 邻近词。这些数据集基于收集互联网上发表的文本,新LLM使用数十亿个词进行训练。

在这里插入图片描述

  • 最终,我们得到一个巨大的与work在训练数据中一起出现的词集(E.g:roof),以及那些没有(E.g:dove)与它一起出现的词集。

在这里插入图片描述

  • 当模型处理这个词集时,它会产生一个向量——或数值列表——并根据每个词在训练数据中与work的邻近程度来调整它。这个向量被称为词嵌入(embedding)

在这里插入图片描述

  • 一个词嵌入可以包含数百个值,每个值表示一个词意义的不同方面。就像你可能会通过其特征来描述一座房子——类型、位置、卧室、浴室、楼层——嵌入中的值可以定量表示一个词的语言特征。

在这里插入图片描述

  • 这些特征的派生方式意味着我们不确切知道每个值表示什么,但我们预期在可比较的方式中使用的词,其嵌入往往看起来相似。
    比如一对词组如seaocean,它们可能不会在完全相同的上下文中使用(“all at ocean”不是“all at sea”的直接替代),但它们的意思很接近,并且嵌入允许我们量化这种接近程度。

在这里插入图片描述

  • 通过将每个嵌入表示的数百个值减少到只有两个,我们可以更清楚地看到这些词之间的距离。

在这里插入图片描述

  • 我们可能会发现代词的簇集,或交通工具的模式,能够定量表示词汇的方式是模型生成文本的第一步。

在这里插入图片描述

【一一AGI大模型学习 所有资源获取处一一】

①人工智能/大模型学习路线

②AI产品经理入门指南

③大模型方向必读书籍PDF版

④超详细海量大模型实战项目

⑤LLM大模型系统学习教程

⑥640套-AI大模型报告合集

⑦从0-1入门大模型教程视频

⑧AGI大模型技术公开课名额

Transformer

在搞清楚了大模型是如何理解人类语言之后,或许你会觉得不过如此,这与LLM表现出的强大功能似乎并不相符。没错仅仅靠令牌和向量化还不足以使LLM如此聪明,接下来我们将直抵AI大模型的心脏-Transformer,正是依靠Transformer,LLM才能够像今天这样流畅地解析和书写,它从根本上加快并增强了计算机理解语言的方式。

阐述transformer模型的研究首次由谷歌的8名AI研究人员在2017年6月发表,正是大家耳熟能详的《Attention is All You Need》开启了AI的新纪元,Attention也将是下文着重讲解的核心概念,我将带领大家在上述数学模型的基础上构建对LLM的基础概念抽象。

  • Transformer体系结构的一个关键概念是自注意力(Attention)。这就是允许LLM理解词之间关系的原因。

在这里插入图片描述

  • 自注意力查看文本中的每个令牌(token),并决定哪些对理解其含义最重要。

在这里插入图片描述

  • 在transformer之前,最先进的AI翻译方法是循环神经网络(RNN),它逐字扫描句子并顺序处理。

在这里插入图片描述

  • 通过自注意力,transformer可以同时计算句子中的所有单词。捕捉这种上下文为LLM提供了更复杂的语言处理能力。

在这里插入图片描述

  • 在这个例子中,同时评估整个句子意味着transformer能够理解interest在这里作为名词使用,以解释个人对政治的看法。

在这里插入图片描述

  • 如果我们调整句子…

在这里插入图片描述

  • …模型就会理解interest现在是在金融意义上使用。

在这里插入图片描述
当我们组合这些句子时,模型仍然能够识别每个词的正确含义,这要归功于它对伴随文本的注意力。

  • 第一次使用interest,它主要注意到noin

在这里插入图片描述

  • 第二次,它主要注意到ratebank

在这里插入图片描述

  • 这种功能对于高级文本生成至关重要。没有它,在某些上下文中可以互换但在其他上下文中不可以的词可能会被错误使用。

在这里插入图片描述

  • 实际上,自注意力意味着如果这个句子的摘要被生成,您不会在讨论利率时使用enthusiasm这个词。

在这里插入图片描述

  • 这种能力远远超越像interest这样有多个意思的词。

在这里插入图片描述

  • 在下面的句子中,自注意力能够计算出it最有可能指代dog

在这里插入图片描述

  • 如果我们改变句子,将hungry替换为delicious,模型能够重新计算,现在it最有可能指代bone

在这里插入图片描述

  • 随着规模的扩大,自注意力对语言处理的好处也越来越大。它允许LLM从句子边界之外获取上下文(context),让模型对一个词的使用方式有更深入的理解。

在这里插入图片描述

LLM

理解了LLM基础数学原理和模型概念抽象后,大家是不是很兴奋,最后让我们看看目前世界上最先的大预言模型到底做了什么,构建了如此缤纷多彩的AI应用世界。

大模型之所以被称之为大,是因为其训练有我们整个互联网的基础语料库的支撑,从这巨大的语料库中,模型学会识别模式,最终预测下一个最佳选项。接下来我将带领大家直面大模型,为大家揭秘LLM是如何涌现智能,成为最像人的人工智能的。

  • 基于上文的Transformer模型,对互联网语料库处理后,我们可以生成人类语言的数据模型,表示机器所理解的输入,包括词义、位置和词之间的关系。

在这里插入图片描述

  • 基于以上数学模型,求取最优解最简单的方式,就是将模型的目标设定为预测一个序列中的下一个词,并重复此过程直到输出完成。

在这里插入图片描述

  • 为此,模型给每个令牌一个概率分数(probability score),表示它是序列中下一个词的可能性。

在这里插入图片描述

  • 它将继续这样做,直到对所产生的文本感到满意。

在这里插入图片描述

  • 但是,这种隔离地预测下一个词的方法(称为“贪心搜索”)会引入问题。虽然每个令牌可能是下一个最佳选择,但整个短语可能不太相关。
    并不一定总是错误,但可能也不是你所期望的。

在这里插入图片描述

  • Transformer使用多种方法来解决这个问题并提高输出质量。一个例子叫束搜索。
    它不仅关注序列中下一个词,而是考虑一组较大令牌集合的概率。

在这里插入图片描述

  • 通过束搜索,模型能够考虑多种路径并找到最佳选项。

在这里插入图片描述

  • 这会产生更好的结果,最终导致更连贯、更人性化的文本。
    在这里插入图片描述

总结

Transformer已经引领了各种尖端的AI应用程序的创建。除了支持像Bard和ChatGPT这样的聊天机器人之外,它还驱动我们移动键盘上的自动完成功能和智能扬声器中的语音识别。

然而,它的真正威力在语言之外。它的发明者发现,transformer模型可以识别和预测任何重复的主题或模式。从图片中的像素,使用Dall-E、Midjourney和Stable Diffusion等工具,到计算机代码使用GitHub Copilot等生成器。它甚至可以预测音乐中的音符和蛋白质中的DNA来帮助设计药物分子。

数十年来,研究人员构建了专门的模型来总结、翻译、搜索和检索。transformer统一了那些动作到一个单一的结构中,使其能够执行大量各种各样的任务。

通过一个统一的语言模型,实现了从图像,音乐,视频多模态的应用,并且强于以往所有的AI应用,这就是这个故事神奇的地方。

如何系统的去学习大模型LLM ?

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来

😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

四、AI大模型商业化落地方案

img

阶段1:AI大模型时代的基础理解
  • 目标:了解AI大模型的基本概念、发展历程和核心原理。
  • 内容
    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
      - L1.4.1 知识大模型
      - L1.4.2 生产大模型
      - L1.4.3 模型工程方法论
      - L1.4.4 模型工程实践
    • L1.5 GPT应用案例
阶段2:AI大模型API应用开发工程
  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
  • 内容
    • L2.1 API接口
      - L2.1.1 OpenAI API接口
      - L2.1.2 Python接口接入
      - L2.1.3 BOT工具类框架
      - L2.1.4 代码示例
    • L2.2 Prompt框架
      - L2.2.1 什么是Prompt
      - L2.2.2 Prompt框架应用现状
      - L2.2.3 基于GPTAS的Prompt框架
      - L2.2.4 Prompt框架与Thought
      - L2.2.5 Prompt框架与提示词
    • L2.3 流水线工程
      - L2.3.1 流水线工程的概念
      - L2.3.2 流水线工程的优点
      - L2.3.3 流水线工程的应用
    • L2.4 总结与展望
阶段3:AI大模型应用架构实践
  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
  • 内容
    • L3.1 Agent模型框架
      - L3.1.1 Agent模型框架的设计理念
      - L3.1.2 Agent模型框架的核心组件
      - L3.1.3 Agent模型框架的实现细节
    • L3.2 MetaGPT
      - L3.2.1 MetaGPT的基本概念
      - L3.2.2 MetaGPT的工作原理
      - L3.2.3 MetaGPT的应用场景
    • L3.3 ChatGLM
      - L3.3.1 ChatGLM的特点
      - L3.3.2 ChatGLM的开发环境
      - L3.3.3 ChatGLM的使用示例
    • L3.4 LLAMA
      - L3.4.1 LLAMA的特点
      - L3.4.2 LLAMA的开发环境
      - L3.4.3 LLAMA的使用示例
    • L3.5 其他大模型介绍
阶段4:AI大模型私有化部署
  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
  • 内容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景
学习计划:
  • 阶段1:1-2个月,建立AI大模型的基础知识体系。
  • 阶段2:2-3个月,专注于API应用开发能力的提升。
  • 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
  • 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

  • 22
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值