LLM 是如何工作的? 大型语言模型 Large Language Model GPT4 什么是生成式人工智能 那 Transformer 模型 Attention注意力机制 掩码学习

本文介绍了大型语言模型(LLM)的工作原理,包括表示单词的方式、模型训练和生成文本的过程。同时,文章讨论了生成式人工智能(GAI)的概念,如GPT-4和注意力机制。指出LLM在处理长距离依赖和适应性方面的能力,但也存在生成文本的连贯性、一致性和理解复杂问题的挑战。最后,文章提到了Transformer模型的自注意力机制,以及如何通过Prompt工程和Agent增强LLM的泛化能力。
摘要由CSDN通过智能技术生成

LLM 是如何工作的?

阅前须知

这篇文档旨在给普罗大众推广和介绍 GPT 和 LLM 是什么?GPT 和 LLM 神奇在哪里?为什么会有 AI 热潮?怎么样能用好 GPT 和 LLM?与此同时,这篇文档假定大家(读者)对 ChatGPT 和 LLM(大语言模型)有一个基础的认识。

我知道这里面会有很多对于研究大语言模型的科研学者们早就已经滚瓜烂熟的知识,也会有很多对于提示词工程师和 GPT 大师们早就已经习得的最佳实践,有关和 ChatGPT 沟通的时候 do 和 don’t do 的黄金守则,但是,为了能给普罗大众推广这些知识,我会通过参考很多现有的资料和资源,试图把很多复杂的概念简化,转写成猴子都能听懂的文字,避免不了地就会造成一部分的事实被过分简化,从而导致它看起来与实际的实现和情况不符。

如果你早就已经知道大语言模型的本质和如何使用它,可以跳到靠后的章节阅读,避免造成时间的二次浪费。
这是科普的时候时常有发生的事情,我会尽我所能解释清楚,并写附带上足够多的上下文说明这些过分简化的情况,以及补充足够多的解释和说明对那些感兴趣深入学习的读者深入阅读的资料和引用,对于无法周全满足,还请见谅,欢迎大家指正和提供更好的文档撰写的建议!

  • 简介

LLM大模型,即大型语言模型(Large Language Model),其工作原理主要基于深度学习和自然语言处理技术。以下是LLM大模型工作的基本步骤和原理:

表示单词的方式:LLM大模型首先使用多维向量(通常称为单词嵌入)来表示单词。这种方式使得具有相似上下文含义或其他关系的单词在向量空间中彼此接近。这克服了早期机器学习使用数字表表示每个单词时无法识别单词之间关系的限制。

模型训练:LLM大模型通过预训练和微调的方式进行模型训练。预训练阶段,模型会学习大量的文本数据,从而理解语言的规则和模式。微调阶段,模型会根据特定任务的数据进行进一步的训练,以优化在特定任务上的性能。

生成文本:当给定一个输入(如一个句子、问题或关键词)时,LLM大模型会分析输入的上下文,并基于其训练过程中学到的知识,生成与输入相关的文本。这可以是一个完整的句子、段落或更长的文本。

理解和生成自然语言:LLM大模型通过深度理解和适应不同的语言场景,能够准确地理解用户的问题或需求,并生成符合语境的回答或文本。这使得LLM大模型在智能写作助手、自动翻译系统、智能客服机器人等多种应用场景中都能发挥出色。

适应性和灵活性:由于LLM大模型具有强大的适应性和灵活性,它可以根据不同的行业和特定场景,快速地生成符合需求的文本和答案。同时,它也能够处理多种语言,满足全球化企业的需求。

需要注意的是,LLM大模型的工作原理的实现依赖于大量的计算资源和数据。此外,虽然LLM大模型在许多自然语言处理任务中取得了显著进展,但它仍然面临一些挑战,如处理复杂语言现象、保持生成文本的连贯性和一致性等。

LLM大模型通过深度学习和自然语言处理技术,实现了对自然语言的理解和生成,为各种应用场景提供了强大的支持。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

  • 什么是生成式人工智能?

生成式人工智能(GAI)是一种利用复杂的算法、模型和规则,从大规模数据集中学习以创造新的原创内容的人工智能技术。它专注于生成新内容,如文本、图片、音乐等,全面超越了传统软件的数据处理和分析能力。生成式AI的核心技术是预训练大模型,如GPT-4、Stable Diffusion等,这些模型可以利用海量的数据进行自我学习,掌握不同领域的知识和规则,从而根据用户的输入或指令,输出符合逻辑和语法的内容。

生成式AI具有多个特点,包括创造性,可以创造出原创的、多样的、有趣的内容,甚至超越人类的想象力;通用性,可以适应不同的领域和场景,只要有足够的数据和合适的模型,就可以生成任何类型的内容;可交互性,可以与用户进行实时的交流和沟通,根据用户的反馈和需求,动态地调整和优化输出内容。

生成式AI的应用非常广泛,包括但不限于自然语言处理(如生成文章、诗歌、对话等)、图像生成(如绘画、设计、摄影等)、音频生成(如音乐、语音合成等)以及视频生成(如动画、电影等)。这种技术可以快速生成大量的内容,并且可以根据用户的需求进行定制化生成。

近年来,生成式AI技术取得了显著进展。例如,2022年末OpenAI推出的ChatGPT在文本生成领域取得了重大突破,标志着生成式AI技术在文本生成领域的一大步进展。而在2023年,生成式AI的应用更是迎来了大爆发,其在不同领域的应用也在不断拓宽和深化。

生成式人工智能是一种强大的技术,它正在改变我们与机器的交互方式,以及我们创造和获取内容的方式。随着技术的不断发展和完善,生成式人工智能将在未来发挥更大的作用,为我们的生活和工作带来更多的便利和创新。

洪水猛兽

大型语言模型的现状

I wish GPT4 had never happened

毛孩子们

  • 羊驼家族的冒险

BlinkDL/ChatRWKV: ChatRWKV is like ChatGPT but powered by RWKV (100% RNN) language model, and open source.

Vision-CAIR/MiniGPT-4: Open-sourced codes for MiniGPT-4 and MiniGPT-v2 (https://minigpt-4.github.io, https://minigpt-v2.github.io/)

https://twitter.com/nash_su/status/1651450879122501632

StableDiffustion 的缔造者 Stability AI 发布 StableLM

PaLM 2 Technical Report 速读简报 - 知乎

bigcode (BigCode)

港大解禁ChatGPT 9月起免費用 學生每月限發20條指令 | 獨媒報導 | 獨立媒體

随机鹦鹉

今天我想要从 ChatGPT 为什么会犯蠢和 ChatGPT 为什么总是满足不了我们开始说起,我想先聊一聊大家对于 ChatGPT 的误区。

我不知道是为什么,从何时开始的,包括去年的我在内,我和现在的绝大多数人对 ChatGPT 会有着非常高的预期,指望 ChatGPT 能回答很多对于 ChatGPT 而言不可能的和回答不好的问题。早在去年 OpenAI 刚发布 ChatGPT 之前我就参与到了内测里,并且在使用过 ChatGPT 之后我对 ChatGPT 所表现出来的、大家当时津津乐道的「搜索引擎」的能力感到非常的不屑,我经常无法得到很多我期望的回答。

对!就和我在这一章节所使用的标题「随机鹦鹉」一样,这些大语言模型看起来就是一群随机鹦鹉,这也是为什么在技术圈子里比较热门的 LLM 开发框架的图标会有「🦜」的 Emoji 蕴含在里面的原因。

是吧,那为什么呢?

我们先来看一下绝大多数人觉得 ChatGPT 不行的时候,都问了什么问题?是什么过高的预期造成的误解?

今天是星期几?

张小明是谁?

你是 GPT4 吗?

今天股价是多少?

谁训练了你?

294712 x 12828 等于多少?

这些问题都有一些共同的假设前提,那就是我们觉得

  1. 这些事情足够简单,足够好问。
  2. ChatGPT 怎么可能会不知道自己是谁呢?
  3. 既然 ChatGPT 叫做「人工智能」,那应该 100% 能像平时用计算机一样回答这些问题。
  4. 这些问题背后这都是在探讨既定事实,没有什么难计算和解答的。

嗯,当然,确实挺简单的。让我们先稍微放一放,那更进阶的用户可能会提问说

这看起来都是非常简单的问题,也都是事实强相关的问题,既然 AI 都是概率模型,那难道说别的问题它就能解决解决好了吗?明明很多时候它还是做不好事情

当然,是的,会做不好事情!接下来我再来说一些稍为复杂一点点的、大家觉得 ChatGPT 能做、希望 ChatGPT 做,但是 ChatGPT 实际上,ChatGPT 和 LLM 真的做不到的事情。

  1. 希望 ChatGPT 在解决自己认知范围内的时候超过自己。
  2. 希望 ChatGPT

在这些情况下,ChatGPT 都会毫不吝啬地回答我们抛给它的问题,然后在它不知道这些问题的答案的时候胡编乱造一个答案出来,结果就是我们在和 ChatGPT 和 LLM 交互的过程中觉得:

  • 大语言模型经常会乱说,胡编乱造。

对的,在这里要泼冷水的是,ChatGPT 无法在这样的预设前提下工作,我们也永远不应该以这样的方式去使用 ChatGPT 和类似的大语言模型。

  • 稍微卖点关子地说,我们也不应该用同样的预设去假定我们的人类同类能回答和解决这些问题。

想要搞清楚为什么 ChatGPT 会再这样的问题下翻车,为什么 ChatGPT 总是表现得它自己很蠢,我们就得深入到 ChatGPT 的内部,了解一点点你可能早就听厌了的「Transformer」的原理

  • 32
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

EwenWanW

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值