一文读懂“大语言模型”

1、背景

本文基于谷歌云的官方视频:《Introduction to Large Language
Models》

,使用 ChatGPT4 整理而成,希望对大家入门大语言模型有帮助。
![image.png](https://img-
blog.csdnimg.cn/img_convert/48fe7b8aeed927a6a04ceddb297c85b7.png#averageHue=#eeebe4&clientId=u5543204f-1cb8-4&from=paste&height=1092&id=u786e8177&originHeight=1092&originWidth=1882&originalType=binary&ratio=1&rotation=0&showTitle=false&size=228409&status=done&style=none&taskId=uf4b40cce-2279-4991-8192-15cadd0b7e4&title=&width=1882)

![image.png](https://img-
blog.csdnimg.cn/img_convert/d6cb3ebd74fa34f59693860392d0abc4.png#averageHue=#f4f2ef&clientId=u5543204f-1cb8-4&from=paste&height=1090&id=u8f391ae6&originHeight=1090&originWidth=1890&originalType=binary&ratio=1&rotation=0&showTitle=false&size=335413&status=done&style=none&taskId=u3c63fae9-62b7-4dac-
aec3-23dd196590d&title=&width=1890)

本课程主要包括以下 4 方面的内容:

  • 大语言模型的定义
  • 描述大语言模型的用例
  • 解释提示词调优
  • 谷歌的 Gen AI 开发工具介绍

2、大语言模型介绍

2.1 大语言模型的定义

大语言模型是深度学习的分支

深度学习是机器学习的分支,大语言模型是深度学习的分支。
![image.png](https://img-
blog.csdnimg.cn/img_convert/70ef3787f8f88e6b963eec7b515915e7.png#averageHue=#f3f3f3&clientId=u5543204f-1cb8-4&from=paste&height=1090&id=u546c4200&originHeight=1090&originWidth=1880&originalType=binary&ratio=1&rotation=0&showTitle=false&size=307606&status=done&style=none&taskId=u85741671-86b3-457b-a18c-d110793bb49&title=&width=1880)
机器学习是人工智能(AI)的一个子领域,它的核心是让计算机系统能够通过对数据的学习来提高性能。在机器学习中,我们不是直接编程告诉计算机如何完成任务,而是提供大量的数据,让机器通过数据找出隐藏的模式或规律,然后用这些规律来预测新的、未知的数据。

深度学习是机器学习的一个子领域,它尝试模拟人脑的工作方式,创建所谓的人工神经网络来处理数据。这些神经网络包含多个处理层,因此被称为“深度”学习。深度学习模型能够学习和表示大量复杂的模式,这使它们在诸如图像识别、语音识别和自然语言处理等任务中非常有效。

大语言模型是深度学习的应用之一,尤其在自然语言处理(NLP)领域。这些模型的目标是理解和生成人类语言。为了实现这个目标,模型需要在大量文本数据上进行训练,以学习语言的各种模式和结构。如
ChatGPT,就是一个大语言模型的例子。被训练来理解和生成人类语言,以便进行有效的对话和解答各种问题。

大语言模型和生成式 AI 存在交集

![image.png](https://img-
blog.csdnimg.cn/img_convert/14428cf196cb464d2adc9de17bf92056.png#averageHue=#f3f3f2&clientId=u5543204f-1cb8-4&from=paste&height=1088&id=u5cd6165f&originHeight=1088&originWidth=1884&originalType=binary&ratio=1&rotation=0&showTitle=false&size=328148&status=done&style=none&taskId=ud9640384-44ab-4b98-bbe1-da3ebd639db&title=&width=1884)

生成式AI是一种能够创造新的内容或预测未来数据的人工智能技术。
![image.png](https://img-
blog.csdnimg.cn/img_convert/69c16d6fb36fc6ad84ad2c32c2a7b13d.png#averageHue=#f5f3f1&clientId=u5543204f-1cb8-4&from=paste&height=1088&id=u0384fc8b&originHeight=1088&originWidth=1884&originalType=binary&ratio=1&rotation=0&showTitle=false&size=237639&status=done&style=none&taskId=u4dd41cc5-5f1f-4e47-b202-0e063028ffd&title=&width=1884)
这种技术包括用于生成文本、图像、音频和视频等各种类型的内容的模型。生成式AI的一个关键特性是,它不仅可以理解和分析数据,还可以创造新的、独特的输出,这些输出是从学习的数据模式中派生出来的。

大型通用语言模型预训练和微调

大型通用语言模型可以进行预训练,然后针对特定目标进行微调。
![image.png](https://img-
blog.csdnimg.cn/img_convert/df980f9d3a7e18e207423d25faeb8fd3.png#averageHue=#f6f6f6&clientId=u5543204f-1cb8-4&from=paste&height=1092&id=u2f802260&originHeight=1092&originWidth=1890&originalType=binary&ratio=1&rotation=0&showTitle=false&size=229222&status=done&style=none&taskId=u7813859b-04a4-40b9-b404-d7c01fb85f9&title=&width=1890)

![image.png](https://img-
blog.csdnimg.cn/img_convert/d4c76ccb1547b3e96f4b96d4a52dc60a.png#averageHue=#f5f5f5&clientId=u5543204f-1cb8-4&from=paste&height=1088&id=uead384fa&originHeight=1088&originWidth=1880&originalType=binary&ratio=1&rotation=0&showTitle=false&size=202765&status=done&style=none&taskId=ud4d22d5a-a9e6-49f0-976a-bfc44febd71&title=&width=1880)
训练: 训练狗狗为例,可以训练它坐、跑过来、蹲下、保持不动。

![image.png](https://img-
blog.csdnimg.cn/img_convert/2ac4a10ead8f14740e566ab00aceee18.png#averageHue=#f5f5f4&clientId=u5543204f-1cb8-4&from=paste&height=1094&id=u2f654db8&originHeight=1094&originWidth=1886&originalType=binary&ratio=1&rotation=0&showTitle=false&size=224390&status=done&style=none&taskId=u45fe89a6-b022-450a-8285-7e4d52f3bf1&title=&width=1886)
如果想训练警犬、导盲犬和猎犬,则需要特殊的训练方法。
![image.png](https://img-
blog.csdnimg.cn/img_convert/d0066b03d0d0df41cfa9399653fd0a1b.png#averageHue=#f1f1f1&clientId=u5543204f-1cb8-4&from=paste&height=1094&id=u00a552c9&originHeight=1094&originWidth=1892&originalType=binary&ratio=1&rotation=0&showTitle=false&size=131406&status=done&style=none&taskId=ubf08d7f8-94b8-4e0f-95de-7e168877359&title=&width=1892)
大语言模型的训练也采用与之类似的思路。

![image.png](https://img-
blog.csdnimg.cn/img_convert/c8ba457660399accca66077f865b34f4.png#averageHue=#f3f3f2&clientId=u5543204f-1cb8-4&from=paste&height=1094&id=ue011cb34&originHeight=1094&originWidth=1878&originalType=binary&ratio=1&rotation=0&showTitle=false&size=253573&status=done&style=none&taskId=ucf86710a-6090-4944-aa08-d5f21375064&title=&width=1878)
大型语言模型被训练来解决通用(常见)的语言问题,如文本分类、问答、文档总结和文本生成等

(1)文本分类
:大型语言模型可以通过对输入文本进行分析和学习,将其归类到一个或多个预定义的类别中。例如,可以使用大型语言模型来分类电子邮件是否为垃圾邮件,或将推文归类为积极、消极或中立。
(2)问答 :大型语言模型可以回答用户提出的自然语言问题。例如,可以使用大型语言模型来回答搜索引擎中的用户查询,或者回答智能助手中的用户问题。
(3)文档总结
:大型语言模型可以自动提取文本中的主要信息,以生成文档摘要或摘录。例如,可以使用大型语言模型来生成新闻文章的概要,或从长篇小说中提取关键情节和事件。
(4)文本生成 :大型语言模型可以使用先前学习的模式和结构来生成新的文本。例如,可以使用大型语言模型来生成诗歌、短故事、或者以特定主题的文章。

![image.png](https://img-
blog.csdnimg.cn/img_convert/b6f9ad65262304e227794804706317d9.png#averageHue=#f4f4f4&clientId=u5543204f-1cb8-4&from=paste&height=1080&id=u32d5ef85&originHeight=1080&originWidth=1886&originalType=binary&ratio=1&rotation=0&showTitle=false&size=257217&status=done&style=none&taskId=ua34dff19-dbc2-4b0c-bc3a-6670669adaf&title=&width=1886)
大语言模型(LLMs)可以基于特定领域的小规模的数据集上进行训练,来定制化解决不同领域如零售、金融、娱乐等的特定问题

大语言模型的特征和训练关键词

![image.png](https://img-
blog.csdnimg.cn/img_convert/9da38fd5849d574d9033af3c9bf9f963.png#averageHue=#eeeeed&clientId=u5543204f-1cb8-4&from=paste&height=1102&id=uba213938&originHeight=1102&originWidth=1890&originalType=binary&ratio=1&rotation=0&showTitle=false&size=297884&status=done&style=none&taskId=u8a6cd6b8-5b65-44fb-b9fa-7fcc1e5dccb&title=&width=1890)

Large(大) :在"大语言模型"的上下文中,"大"主要有两层含义。一方面,它指的是模型的参数数量
。在这些模型中,参数的数量通常会非常大,达到数十亿甚至数百亿。这使得模型能够学习和表示非常复杂的模式。另一方面,"大"也指的是训练数据的规模
。大语言模型通常在大规模的文本数据上进行训练,这种数据可以来自互联网、书籍、新闻等各种来源。

General-purpose(通用)
:这个词描述的是模型的应用范围。通用语言模型在训练时使用了来自各种领域的数据,因此它们能够处理各种类型的任务,不仅限于某一个特定的任务或领域。这使得这些模型在处理新的、未见过的任务时具有很强的泛化能力。

Pre-trained and fine-tuned(预训练和微调)
:这是描述模型训练过程的关键词。在预训练阶段,模型在大规模的通用文本数据上进行训练,学习语言的基本结构和各种常识。然后,在微调阶段
,模型在更小、更特定的数据集上进行进一步的训练。这个数据集通常是针对某个特定任务或领域的,例如医学文本、法律文本,或者是特定的对话数据。微调可以让模型更好地理解和生成这个特定领域的语言,从而更好地完成特定的任务。

大语言模型的好处

![image.png](https://img-
blog.csdnimg.cn/img_convert/368356d558eb4b12e6cdde83d66b77c1.png#averageHue=#edebe9&clientId=u5543204f-1cb8-4&from=paste&height=1098&id=uea314d17&originHeight=1098&originWidth=1888&originalType=binary&ratio=1&rotation=0&showTitle=false&size=310858&status=done&style=none&taskId=u0dc8002d-0c25-4c9d-812e-736fdd0f1e8&title=&width=1888)
单一模型可用于不同任务
:由于大语言模型是通用的,并且具有强大的泛化能力,所以它们可以处理各种类型的任务,比如文本分类、命名实体识别、情感分析、问答系统、文本生成等。这意味着我们可以使用同一个预训练的模型来处理不同的任务,只需要进行相应的微调就可以。这大大减少了开发和维护不同模型的复杂性和成本。

微调过程只需要最小的数据
:尽管大语言模型在预训练阶段需要大量的通用文本数据,但在微调阶段,它们通常只需要相对较小的领域特定数据。这是因为模型在预训练阶段已经学习了大量的语言知识和常识,微调阶段主要是让模型适应特定的任务或领域。这使得大语言模型能够在数据稀缺的领域中也能表现出色。

随着更多的数据和参数,性能持续提
升:大语言模型的性能通常随着训练数据的增加和模型参数的增加而提升。这意味着,通过训练更大的模型,并使用更多的数据,我们可以获得更好的性能。这是因为更大的模型有更多的参数,能够学习和表示更复杂的模式;同时,更多的数据能够提供更丰富的信息,帮助模型更好地理解语言。

Pathways 语言模型 (PaLM)

![image.png](https://img-
blog.csdnimg.cn/img_convert/9450e5476a33b3a03b1ea4b2a3691d87.png#averageHue=#f5f5f5&clientId=u5543204f-1cb8-4&from=paste&height=1088&id=u1426258c&originHeight=1088&originWidth=1878&originalType=binary&ratio=1&rotation=0&showTitle=false&size=150847&status=done&style=none&taskId=u291dadb4-c4a0-47b8-8c63-984143a68d5&title=&width=1878)

![image.png](https://img-
blog.csdnimg.cn/img_convert/96ce1426015cd2e805b3a0f2be8df181.png#averageHue=#f3f3f3&clientId=u5543204f-1cb8-4&from=paste&height=1096&id=u5b269c83&originHeight=1096&originWidth=1878&originalType=binary&ratio=1&rotation=0&showTitle=false&size=274462&status=done&style=none&taskId=uf11a72a6-3d11-46d6-ac58-e48adf34d45&title=&width=1878)
拥有5400亿参 数:这是一个庞大的模型,参数数量远超过 GPT-3 的参数数量。这些参数使得 PaLM 能够更好地理解和生成语言。

利用新的 Pathway 系统 :PaLM是首个大规模使用 Pathways 系统的模型。Pathways 系统使得 PaLM 能够将训练扩展到
6144 个芯片,这是迄今为止用于训练的最大的基于TPU的系统配置。与之前的大型语言模型相比,这是一个显著的规模提升。

为加速器编排分布式计算 :Pathways 系统能够高效地管理分布式计算,使得 PaLM 能够在多个 TPU v4
Pods上进行训练。这个系统的设计使得 PaLM能 够在硬件 FLOPs 利用率上达到 57.8%,这是迄今为止在此规模的大型语言模型中所达到的最高利用率。

Transformer 模型

![image.png](https://img-
blog.csdnimg.cn/img_convert/eba15069af5cb7b32a9c82a4bb640f8c.png#averageHue=#f4f4f4&clientId=u5543204f-1cb8-4&from=paste&height=1088&id=u7a85fe8b&originHeight=1088&originWidth=1880&originalType=binary&ratio=1&rotation=0&showTitle=false&size=196835&status=done&style=none&taskId=ude0b3e8f-7c33-402a-8b6b-c5d22cefe35&title=&width=1880)
Transformer 模型 是一种在自然语言处理(NLP)领域中广泛使用的深度学习模型,它最初在 “Attention is All You
Need” 这篇论文中被介绍。Transformer 模型的主要特点是使用了自注意力(self-
attention)机制,这种机制允许模型在处理序列数据时考虑到序列中所有元素的上下文关系。
Transformer 模型主要由两个部分组成:编码器(Encoder)和解码器(Decoder)。

  1. 编码器(Encoder) :编码器由多个相同的层组成,每一层都有两个子层。第一个子层是自注意力层,它可以考虑到输入序列中所有元素的上下文关系。第二个子层是一个前馈神经网络(Feed Forward Neural Network)。每个子层后面都跟有一个残差连接和层归一化。编码器的任务是将输入序列转换为一组连续的表示,这些表示考虑了输入序列中每个元素的上下文。
  2. 解码器(Decoder) :解码器也由多个相同的层组成,每一层有三个子层。第一个子层是自注意力层,但它在处理当前元素时,只考虑到该元素及其之前的元素,不考虑其后的元素,这种机制被称为掩码自注意力。第二个子层是一个编码器-解码器注意力层,它使解码器可以关注到编码器的输出。第三个子层是一个前馈神经网络。每个子层后面都跟有一个残差连接和层归一化。解码器的任务是基于编码器的输出和前面已经生成的元素,生成下一个元素。

![image.png](https://img-
blog.csdnimg.cn/img_convert/5573632791cd57621183629e3d2b41d1.png#averageHue=#e9e8e6&clientId=u5543204f-1cb8-4&from=paste&height=1090&id=xklkJ&originHeight=1090&originWidth=1896&originalType=binary&ratio=1&rotation=0&showTitle=false&size=303560&status=done&style=none&taskId=u735950ee-860f-4168-ba1b-b0df04b4150&title=&width=1896)
传统语言开发中,需要对 Cat 的规则进行硬编码。

![image.png](https://img-
blog.csdnimg.cn/img_convert/d8726b4b1374af26377c2b51d625ab4c.png#averageHue=#efb928&clientId=u5543204f-1cb8-4&from=paste&height=1084&id=sHd1X&originHeight=1084&originWidth=1888&originalType=binary&ratio=1&rotation=0&showTitle=false&size=456501&status=done&style=none&taskId=u8bc3324f-b9be-41ff-b6d4-a294dd5a038&title=&width=1888)

2012年前的神经网络,我们可以将是否为猫的数据喂给模型,然后给出一张图片让它判断图片中是否是一只猫。
![image.png](https://img-
blog.csdnimg.cn/img_convert/3c2284ce07136fabdbac68498ed1f26f.png#averageHue=#f2b922&clientId=u5543204f-1cb8-4&from=paste&height=1086&id=EXYNG&originHeight=1086&originWidth=1880&originalType=binary&ratio=1&rotation=0&showTitle=false&size=452135&status=done&style=none&taskId=u2a964ad8-cbbe-468e-842e-a58f3902e8f&title=&width=1880)
通过生成式语言模型,如 LaMDA、PaLM、GPT
等,它们可以阅读大量的资料,和海量的关于猫相关的知识。我们就可以对它提问,猫是什么?它可以回答出它知道的关于猫的所有特征。

大语言模型开发 VS 传统机器学习开发

![image.png](https://img-
blog.csdnimg.cn/img_convert/6b1211fa5db7eb84122b7b5f2fb832d1.png#averageHue=#f0eeee&clientId=u5543204f-1cb8-4&from=paste&height=1092&id=u27c6b5f0&originHeight=1092&originWidth=1880&originalType=binary&ratio=1&rotation=0&showTitle=false&size=364500&status=done&style=none&taskId=u7291f9ba-3c80-419f-92fb-862e9e6c3b2&title=&width=1880)
使用预训练的大型语言模型(LLM)进行开发和传统的机器学习开发存在很多不同之处。

使用预训练的大型语言模型(LLM)开发

  1. 不需要机器学习专业知识 :因为大型语言模型已经预训练完成,开发者无需对机器学习的专业知识有深入理解,只需要知道如何调用模型API,即可使用模型生成相应的语言输出。
  2. 不需要训练样本 :在许多情况下,只需要向模型提供合适的提示(prompt),模型就能生成相应的输出,而无需大量的训练样本。
  3. 不需要训练模型 :模型已经在大规模数据集上进行了预训练,开发者无需再次训练模型。
  4. 主要关注提示词设计 :开发者的主要工作变为设计有效的提示词,使模型能够理解并生成合适的输出。

传统的机器学习开发

  1. 需要机器学习专业知识 :开发者需要理解不同的机器学习算法,知道如何选择合适的算法,如何设置参数,以及如何解决可能出现的问题。
  2. 需要训练样本 :开发者需要收集和准备大量的训练样本,以便训练模型。
  3. 需要训练模型 :开发者需要使用训练样本来训练模型,这通常需要消耗大量的时间和计算资源。
  4. 需要计算时间和硬件资源 :传统的机器学习模型训练通常需要大量的计算时间和硬件资源。
  5. 主要关注最小化损失函数 :开发者需要设计和优化损失函数,以便模型在训练过程中尽可能地减小损失,提高模型的性能。

简单来说,使用预训练的大型语言模型(LLM)开发的主要优势在于简化了开发过程,降低了开发的难度和门槛,而传统的机器学习开发则需要更多的专业知识和资源投入。

2.2 大语言模型的用例

问题系统

![image.png](https://img-
blog.csdnimg.cn/img_convert/b496db577f0918ef350e71153fb6afaf.png#averageHue=#f0f0f0&clientId=u5543204f-1cb8-4&from=paste&height=1102&id=DBPmU&originHeight=1102&originWidth=1886&originalType=binary&ratio=1&rotation=0&showTitle=false&size=139044&status=done&style=none&taskId=ub4ae8c47-0458-43a9-80f3-64f9ff5a9b0&title=&width=1886)
大语言模型的典型应用场景是问答系统。

![image.png](https://img-
blog.csdnimg.cn/img_convert/abd2ec91d5218aa17caa2e86082346e6.png#averageHue=#eeeeed&clientId=u5543204f-1cb8-4&from=paste&height=1098&id=lr1Uk&originHeight=1098&originWidth=1890&originalType=binary&ratio=1&rotation=0&showTitle=false&size=459397&status=done&style=none&taskId=ue447993e-a394-4791-aac0-b933b1c335f&title=&width=1890)
问答(QA)是自然语言处理的一个子领域,它处理的任务是自动回答以自然语言提出的问题。
问答模型能够从给定的文本中检索出问题的答案。这在从文档中搜索答案时非常有用。根据所使用的模型不同,问答系统可以直接从文本中提取答案,也可以生成新的文本作为答案。

![image.png](https://img-
blog.csdnimg.cn/img_convert/1464b11a5d07f40f8dfa9fe5c695effb.png#averageHue=#ececec&clientId=u5543204f-1cb8-4&from=paste&height=1102&id=u30d5fbc5&originHeight=1102&originWidth=1880&originalType=binary&ratio=1&rotation=0&showTitle=false&size=348581&status=done&style=none&taskId=ud9c240fd-
ec76-4b93-876e-6d36178d2f8&title=&width=1880)

在自然语言处理中的问答任务,往往需要一定的领域知识。这是因为,要理解和回答特定领域的问题,模型需要有相关的背景知识。例如,如果要回答医学相关的问题,模型需要知道医学术语和基本的医学知识。如果要回答法律相关的问题,模型需要知道法律术语和基本的法律原理。
这种领域知识通常通过训练数据来提供。训练数据中的文本会包含大量的领域知识,模型通过学习这些文本,可以获取到这些知识。然而,这种方式获取的知识可能会有限,因为它只能获取到训练数据中包含的知识。因此,对于一些复杂的领域问题,可能需要专门的领域知识库或者专门训练的领域模型来提供更准确的答案。

![image.png](https://img-
blog.csdnimg.cn/img_convert/8dac2af75e174d3520ce23ca3fcbbf27.png#averageHue=#f4f4f2&clientId=u5543204f-1cb8-4&from=paste&height=1098&id=u3dd4eda9&originHeight=1098&originWidth=1884&originalType=binary&ratio=1&rotation=0&showTitle=false&size=272329&status=done&style=none&taskId=ucb50e61d-8cbe-4557-b3d1-9eb20be9ab6&title=&width=1884)
生成式 QA,可以直接根据上下文生成自由文本。利用的是文本生成模型,不需要领域知识。
生成式问答是一种自然语言处理中的问答技术,其特点是直接根据上下文生成自由文本作为答案,而不是从原文中提取答案。这种技术通常利用的是文本生成模型,例如Transformer等。
生成式问答“不需要领域知识”。这可能是指在一般情况下,生成式问答模型可以通过训练数据学习到一般的语言知识,而不需要特定领域的知识。然而,这并不意味着领域知识对生成式问答模型没有帮助。在处理特定领域的问题时,如果模型具有相关的领域知识,往往能够生成更准确、更具深度的答案。

2.3 提示词调优

Bard 问答示例

![image.png](https://img-
blog.csdnimg.cn/img_convert/d450bacc5275c581b2d753fb54962eff.png#averageHue=#f6f6f6&clientId=u5543204f-1cb8-4&from=paste&height=1092&id=Nt6se&originHeight=1092&originWidth=1882&originalType=binary&ratio=1&rotation=0&showTitle=false&size=133094&status=done&style=none&taskId=u3a8ceeae-510e-45e5-bf7f-a51d7d615db&title=&width=1882)

下面是三个对 谷歌的 Bard 提问的示例。
![image.png](https://img-
blog.csdnimg.cn/img_convert/0f0b8f04e39c35857512980da5e25cfc.png#averageHue=#393d41&clientId=u5543204f-1cb8-4&from=paste&height=1088&id=cw46c&originHeight=1088&originWidth=1878&originalType=binary&ratio=1&rotation=0&showTitle=false&size=391741&status=done&style=none&taskId=u383e4b69-6dd8-4dfe-85b4-426e486f14d&title=&width=1878)

![image.png](https://img-
blog.csdnimg.cn/img_convert/4720ec803091dee8d11645a67edd638f.png#averageHue=#383c40&clientId=u5543204f-1cb8-4&from=paste&height=1090&id=tEkT6&originHeight=1090&originWidth=1890&originalType=binary&ratio=1&rotation=0&showTitle=false&size=306582&status=done&style=none&taskId=uda8d39a7-86f3-44b8-ac03-38ebaa843f5&title=&width=1890)

![image.png](https://img-
blog.csdnimg.cn/img_convert/440b04e87a82b4ce2d4e3bb3acea0656.png#averageHue=#383c40&clientId=u5543204f-1cb8-4&from=paste&height=1094&id=kdyar&originHeight=1094&originWidth=1884&originalType=binary&ratio=1&rotation=0&showTitle=false&size=365273&status=done&style=none&taskId=u00813009-43ea-4a94-b556-61d3b94efa8&title=&width=1884)

提示词设计

![image.png](https://img-
blog.csdnimg.cn/img_convert/e7edefd18784f866c045982e5b11e2ac.png#averageHue=#373b3f&clientId=u5543204f-1cb8-4&from=paste&height=1094&id=u090cd3be&originHeight=1094&originWidth=1894&originalType=binary&ratio=1&rotation=0&showTitle=false&size=263680&status=done&style=none&taskId=u2c0ec406-700d-4b21-a858-6775615d3c4&title=&width=1894)
提示词设计是创建能引导语言模型产生期望响应的提示的过程。

在使用语言模型,尤其是生成式语言模型时,如何设计输入的提示词(Prompt)是非常重要的。因为模型的输出(即生成的文本)将根据输入的提示进行生成。好的提示可以引导模型生成有用、准确的文本,而差的提示可能导致模型的输出偏离期望,或者产生含糊不清、语义不明确的结果。
提示设计的过程可能包括考虑提示的语法结构、使用的词汇、上下文信息等因素,以尽可能地引导模型生成期望的响应。

提示词设计和提示词工程

![image.png](https://img-
blog.csdnimg.cn/img_convert/c611ff784b616d7c001261ae75a380a1.png#averageHue=#f1f0f0&clientId=u5543204f-1cb8-4&from=paste&height=1092&id=udb8974e4&originHeight=1092&originWidth=1888&originalType=binary&ratio=1&rotation=0&showTitle=false&size=297019&status=done&style=none&taskId=u80002ffd-
de6a-47e1-b410-661a3885a22&title=&width=1888)

**提示词设计(Prompt Design)**指的是传递给语言模型的指令或信息,它们告诉模型要做什么。提示通常包括一些上下文信息和具体的任务指示。
**提示词工程(Prompt
Engineering)**是一种实践,它涉及到开发和优化这些提示,以便更有效地使用语言模型。这可能包括测试不同的提示格式、考虑不同的上下文信息,以及使用一些技术手段(如微调等)来改进模型对提示的理解和响应。在许多情况下,通过精心设计和优化的提示,可以显著提高模型的性能,使其更好地适应各种任务和应用场景。

三种主要的大语言模型

![image.png](https://img-
blog.csdnimg.cn/img_convert/d596a6a1dde78e971e2ff39ef2e28dca.png#averageHue=#f2f2f2&clientId=u5543204f-1cb8-4&from=paste&height=1094&id=uc2c7591c&originHeight=1094&originWidth=1880&originalType=binary&ratio=1&rotation=0&showTitle=false&size=386023&status=done&style=none&taskId=u7b9296bd-29a2-4978-a030-c2746407a3e&title=&width=1880)
主要有三种类型的大语言模型,每种都需要以不同的方式进行提示。前两者容易被混淆,但给出的输出非常不同。
![image.png](https://img-
blog.csdnimg.cn/img_convert/aaa48135c0815f956213e729ba1c5035.png#averageHue=#e8e7e1&clientId=u5543204f-1cb8-4&from=paste&height=1090&id=u37cb8499&originHeight=1090&originWidth=1896&originalType=binary&ratio=1&rotation=0&showTitle=false&size=339144&status=done&style=none&taskId=u007d4527-b16d-4744-82b5-0a57ba161da&title=&width=1896)

1、通用(或原始)语言模型
:这些模型根据训练数据中的语言预测下一个词(技术上说,是预测下一个词元)。这种模型通常使用大量的未标记文本进行训练,学习语言的统计规律,但没有特定的任务指向。

![image.png](https://img-
blog.csdnimg.cn/img_convert/76835903a0ee0f2bf859fc7709e4618d.png#averageHue=#f3f2ef&clientId=u5543204f-1cb8-4&from=paste&height=1092&id=ub84cdd48&originHeight=1092&originWidth=1886&originalType=binary&ratio=1&rotation=0&showTitle=false&size=285332&status=done&style=none&taskId=u02937d78-6439-4866-a4a6-bce7161c5bf&title=&width=1886)
2、指令调整模型
:这些模型经过训练,以预测对输入中给出的指令的响应。这种模型在通用语言模型的基础上,通过对特定任务数据的训练,使其能够对给定的指令做出适当的响应。这类模型可以理解和执行特定的语言任务,如问答、文本分类、总结、写作、关键词提取等。

![image.png](https://img-
blog.csdnimg.cn/img_convert/c1641de860f7656c9bec8db6b7d7390e.png#averageHue=#f0f0f0&clientId=u5543204f-1cb8-4&from=paste&height=1096&id=u7c657007&originHeight=1096&originWidth=1886&originalType=binary&ratio=1&rotation=0&showTitle=false&size=451993&status=done&style=none&taskId=ua1248423-5cd2-495b-8476-38fa521e9cb&title=&width=1886)

3、对话调整模型
:这些模型经过训练,以通过预测下一个响应进行对话。这种模型在通用语言模型的基础上,通过对对话数据的训练,使其能够进行对话。这类模型可以理解和生成对话,例如生成聊天机器人的回答。

链式思考推理

![image.png](https://img-
blog.csdnimg.cn/img_convert/e58af44acc67ddcab22c9d4dfc3d0f33.png#averageHue=#c1ae83&clientId=u5543204f-1cb8-4&from=paste&height=1094&id=ucaaf60b6&originHeight=1094&originWidth=1886&originalType=binary&ratio=1&rotation=0&showTitle=false&size=506668&status=done&style=none&taskId=u13db10b4-61a6-4f51-b7ee-2fbba332234&title=&width=1886)

当模型在给出答案之前首先输出解释答案原因的文本时,它们更有可能得到正确的答案。这被称为"链式思维推理"。也就是说,模型在进行推理时,不仅仅直接给出答案,而是先阐述出达到答案的推理过程或原因,这样可以提高答案的准确性。

第 1 次对话:模型直接得出正确答案的可能性较小。

Q: Roger 有 5 个网球。他买了 2 罐网球。每罐有 3 个网球。他现在有多少个网球?
A:

第 2 次对话:现在,输出更有可能以正确的答案结束。

Q: Roger 有5个网球。他买了2罐网球。每罐有3个网球。他现在有多少个网球?我们逐步思考一下这个问题(Let’s think this
through step by step)。
A: Roger最初有5个球。2 罐每罐有 3 个网球,总共是6个网球。5 + 6=11。答案是 11。

![image.png](https://img-
blog.csdnimg.cn/img_convert/54e6c0db1cdc1c8a6c7d7c46840f4dbd.png#averageHue=#f5f4f4&clientId=u5543204f-1cb8-4&from=paste&height=1092&id=u979c86e9&originHeight=1092&originWidth=1884&originalType=binary&ratio=1&rotation=0&showTitle=false&size=247774&status=done&style=none&taskId=u796316d7-64e2-4db2-9441-e7519f39806&title=&width=1884)

一个通用模型在实际应用中有其局限性。针对特定任务的调优可以使大型语言模型(LLMs)变得更可靠。
一个通用的模型在实际应用中有其局限性 ”,意味着尽管 LLMs
被训练为理解和生成自然语言,并能够处理广泛的任务,但在实际应用中,它们仍然有限制。例如,它们可能在理解复杂或专业领域的内容方面表现不佳,或者在没有足够相关训练数据的情况下,其预测可能偏离实际。

针对特定任务的调优可以使大型语言模型(LLMs)变得更可靠 ”,是在指出通过特定任务的微调,可以改进LLMs
的表现。这种微调通常涉及在特定任务的数据上进一步训练模型,使其更好地适应该任务。例如,如果我们有一个在广泛语料库上预训练的
LLM,我们可以在法律文档上对其进行微调,以提高其在法律问题解答任务上的表现。这种任务特定的调优可以使模型在特定应用上更加可靠和准确。

![image.png](https://img-
blog.csdnimg.cn/img_convert/a15b88c1276c65084073f0dbe7dd0435.png#averageHue=#f2e2b1&clientId=u5543204f-1cb8-4&from=paste&height=1094&id=uad028bbd&originHeight=1094&originWidth=1886&originalType=binary&ratio=1&rotation=0&showTitle=false&size=353790&status=done&style=none&taskId=u2dd8dc40-6af0-482f-93d7-090cee8d9a0&title=&width=1886)
Model Garden 是 Google
的一个开源项目,旨在为研究者和开发者提供预训练的机器学习模型和相关的训练和优化技术。这些模型覆盖了许多不同的机器学习任务,例如图像分类、物体检测和自然语言处理等。

Model Garden 中的模型分为两大类:语言模型和视觉模型。

  1. 语言模型 :这类模型可以进行一些特定的语言处理任务,如:
    • 提取(Extraction):这类任务包括语法分析(Syntax Analysis),它可以理解文本的语法结构。
    • 分类(Classification):这类任务包括实体分析(Entity Analysis,识别文本中的特定实体,如人名、地名等)、内容分类(Content Classification,根据内容的主题进行分类)、情感分析(Sentiment Analysis,评估文本的情感倾向,如积极、消极等)、实体情感分析(Entity Sentiment Analysis,评估特定实体在文本中的情感倾向)。
  2. 视觉模型 :这类模型可以进行一些特定的视觉任务,如:
    • 分类(Classification):这类任务包括对象检测(Object Detector,识别图片中的特定对象)。
    • 检测(Detection):这类任务包括人流量分析(Occupancy Analytics,分析特定区域内的人流量)、人/车辆检测(Person/Vehicle Detector,识别图片中的人或车辆)、个人防护设备检测(PPE Detector,识别图片中是否有人穿戴个人防护设备)、人物模糊(Person Blur,将图片中的人物进行模糊处理)。

这些模型都是为特定的任务进行训练和优化的,可以用来解决一些具体的实际问题。

![image.png](https://img-
blog.csdnimg.cn/img_convert/4efca63889a621632b0220e0ebbfbe42.png#averageHue=#f3f3f3&clientId=u5543204f-1cb8-4&from=paste&height=1094&id=u7e7dcd06&originHeight=1094&originWidth=1884&originalType=binary&ratio=1&rotation=0&showTitle=false&size=274115&status=done&style=none&taskId=u4f43bb8e-f747-4501-9b90-0e9dc56430d&title=&width=1884)
"调优(Tuning)
"是一种通过在新数据上训练模型来使模型适应新领域或一组定制用例的过程。例如,我们可能会收集训练数据并专门为法律或医学领域"调优"大型语言模型(LLM)。

![image.png](https://img-
blog.csdnimg.cn/img_convert/6aa6fabd8835f3df8bd454eed08a2aaa.png#averageHue=#f4f3f2&clientId=u5543204f-1cb8-4&from=paste&height=1092&id=u6401d572&originHeight=1092&originWidth=1878&originalType=binary&ratio=1&rotation=0&showTitle=false&size=276868&status=done&style=none&taskId=u7233eb92-ccac-4418-9efb-
bd74c7ca61a&title=&width=1878)
微调 (Fine tuning)" 是一种训练方法,你可以带来自己的数据集,并通过调整 LLM
中的每个权重来重新训练模型。这需要一个大型的训练任务(真的很大),并且你需要托管你自己微调过的模型。具体来说,微调过程中,你会在你的特定任务数据上继续训练预训练的大型语言模型,使模型的所有参数更适应你的任务。这种方法通常需要大量的计算资源,因为你需要在整个模型上进行训练,这也是为什么这段话中提到的"训练任务很大”。

![image.png](https://img-
blog.csdnimg.cn/img_convert/2972c5e6a0478f39f0ffc247db58c71b.png#averageHue=#edeceb&clientId=u5543204f-1cb8-4&from=paste&height=1094&id=ud4349848&originHeight=1094&originWidth=1888&originalType=binary&ratio=1&rotation=0&showTitle=false&size=484785&status=done&style=none&taskId=u1269563c-7674-40d7-96c0-a4ed197dba4&title=&width=1888)
上图,展示了人工智能(AI)在医疗健康领域微调模型的过程。

  1. “Healthcare data (Millions of EHRs)”:这是模型训练的第一步,需要大量的医疗健康数据。EHRs 是电子健康记录(Electronic Health Records)的缩写,这里指的是数百万份的电子健康记录数据。
  2. “Reusable Components (Medical Foundation Model)”:在拥有大量的医疗健康数据后,接下来的步骤是使用这些数据来训练一个基础模型,这个模型被称为 “Medical Foundation Model”。这个模型可以被看作是一个可复用的组件,因为它可以被用于多个不同的任务。
  3. “Task adoption (Question answering, Chart summarizing, Image analysis -> risk stratification, finding similar patients)”:这一步是对基础模型进行微调,使其适应特定的任务。这里列举的任务包括问题回答(Question answering)、图表总结(Chart summarizing)和图像分析/打标(Image analysis/ 打标)。这些任务的目标可能是风险分层(risk stratification)和寻找相似的患者(finding similar patients)。
  4. “Human-AI collaboration (Natural language interactions)”:这一步是实现人工智能与人类的协同工作。在这个过程中,人类可以通过自然语言交互(Natural language interactions)与 AI 进行沟通,这可以帮助人类更好地理解 AI 的分析结果,也可以帮助 AI 更好地理解人类的需求。

![image.png](https://img-
blog.csdnimg.cn/img_convert/9c37fbbe6da6cd0e8bdd1803fdafa0b6.png#averageHue=#eae9e7&clientId=u5543204f-1cb8-4&from=paste&height=1098&id=ud499d5b5&originHeight=1098&originWidth=1892&originalType=binary&ratio=1&rotation=0&showTitle=false&size=347407&status=done&style=none&taskId=u0779f98b-d24e-4e50-b2ee-43d853e51bf&title=&width=1892)
**微调 (Fine tuning) **通常很昂贵并且在许多情况下不现实。
那么, 有没有更高效的调整方法呢?
![image.png](https://img-
blog.csdnimg.cn/img_convert/005c4379d9701ad6a8ddaf0b0704d660.png#averageHue=#f1f1f1&clientId=u5543204f-1cb8-4&from=paste&height=1092&id=uda998f2a&originHeight=1092&originWidth=1884&originalType=binary&ratio=1&rotation=0&showTitle=false&size=373897&status=done&style=none&taskId=ub37272be-1d6a-43a4-83ab-87383844483&title=&width=1884)
这里介绍两种更有效率的大型语言模型(LLM)调优方法:参数高效方法(Parameter-Efficient
Methods,PETM)和提示调优(Prompt Tuning)。

  1. 参数高效方法(PETM) :这是一种在不复制模型的情况下在自定义数据上调优LLM的方法。基础模型本身并未被改变。相反,会调优一小部分可添加的层,这些层可以在推理时刻加入和移出。这种方法的主要优势在于,它只需要修改模型的一小部分参数,因此在计算和存储需求上比全模型微调更为经济。
  2. 提示词调优 :这是参数高效调优方法中最简单的一种。它的基本思想是优化模型生成的提示词,而不是改变模型的参数。通过精心设计的提示,可以引导模型生成特定的输出,而不需要昂贵的模型重新训练过程。这种方法的优点是,它在不需要大量计算资源的情况下,可以有效地利用大型语言模型。 举例来说,如果我们有一个预训练的语言模型,但是要应用于某特定领域(比如法律领域)的文档,我们可以在输入端添加一个“这是一篇法律文档”的提示,让模型学习对法律文档进行正确推理,而无需调整模型中的绝大部分参数。这就是 Prompt Tuning 的基本思想。

2.4 谷歌的 Gen AI 开发工具介绍

![image.png](https://img-
blog.csdnimg.cn/img_convert/4fb28973c0e13b1941ef16a38ef2c04e.png#averageHue=#ededed&clientId=u5543204f-1cb8-4&from=paste&height=1100&id=u87b34a01&originHeight=1100&originWidth=1882&originalType=binary&ratio=1&rotation=0&showTitle=false&size=367062&status=done&style=none&taskId=u5e120ae4-2f86-413f-a7a0-199d785cb2d&title=&width=1882)

“Gen AI Studio” 平台,可以用来微调模型,将模型部署到生产环境,创建聊天机器人,生成图像,以及其他更多功能。

  1. 语言:在 “Gen AI Studio” 平台上,用户可以测试,微调,并部署生成型 AI 语言模型。例如,可以使用PaLM API(可能是一种基于 Pathways 语言模型的 API)进行内容生成、聊天、摘要生成等等。
  2. 视觉:在 “Gen AI Studio” 平台上,用户可以编写文本提示来生成新的图像,或者在已有的图像上生成新的区域。这可能是利用一种文本到图像的生成模型,通过用户提供的文本提示,模型可以生成与文本内容相关的图像。

总的来说,"Gen AI Studio"是一个集成了多种AI模型和功能的平台,可以方便用户进行AI模型的微调,部署,以及其他的应用。
![image.png](https://img-
blog.csdnimg.cn/img_convert/7a225067703230ddeb7b3ca3f373eac1.png#averageHue=#f3f2f1&clientId=u5543204f-1cb8-4&from=paste&height=1096&id=ue476b924&originHeight=1096&originWidth=1890&originalType=binary&ratio=1&rotation=0&showTitle=false&size=408476&status=done&style=none&taskId=uff7f0c4d-c7f2-423b-8119-37fb639e841&title=&width=1890)

Generative AI App Builder
可以用来创建基于生成式人工智能的应用,而且不需要编写任何代码。这个工具使得无需深入了解编程或人工智能的用户也能创建出使用生成式人工智能模型的应用。这些应用可能包括但不限于内容生成、图像生成、音频生成等各种基于生成式人工智能模型的应用。

![image.png](https://img-
blog.csdnimg.cn/img_convert/dfbc7e4e0066723785f0f8a11485a7c6.png#averageHue=#efeeed&clientId=u5543204f-1cb8-4&from=paste&height=1092&id=ucb954b75&originHeight=1092&originWidth=1886&originalType=binary&ratio=1&rotation=0&showTitle=false&size=478995&status=done&style=none&taskId=ub0b30274-06b9-43ae-
bae3-e68b8d03b19&title=&width=1886)
PaLM API 和 MakerSuite 简化生成性开发周期。

  1. “PaLM API”:这是一个简单的入口,让开发者能够使用Google的大型语言模型(LLMs)。它为开发者提供了访问已经为特定用例(如摘要、分类等)优化过的模型的途径。
  2. “MakerSuite”:这是一个入门级的工具,让开发者可以开始原型设计和构建生成性AI应用。它允许开发者迭代优化提示(prompts),用合成数据扩充数据集,并调整定制模型。

"PaLM
API"是为开发者提供方便访问和使用大型语言模型的接口,而"MakerSuite"则是一种便于开发者开始设计和构建生成性AI应用的工具,它提供了在构建应用的过程中可能需要的一系列功能,如迭代优化提示、数据集扩充、模型调优等。
![image.png](https://img-
blog.csdnimg.cn/img_convert/b7373cc21c48bcee043c8c13199c75d8.png#averageHue=#f0eeed&clientId=u5543204f-1cb8-4&from=paste&height=1102&id=u18edef07&originHeight=1102&originWidth=1886&originalType=binary&ratio=1&rotation=0&showTitle=false&size=508357&status=done&style=none&taskId=u6acd43a9-72fe-4298-9169-94a07b9cf8d&title=&width=1886)


今天只要你给我的文章点赞,我私藏的大模型学习资料一样免费共享给你们,来看看有哪些东西。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

img

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

img

### RAG模型概述 RAG(Retrieval-Augmented Generation)是一种融合了检索增强机制的生成型语言模型,由Facebook AI研究院(FAIR)提出。这种架构通过结合传统的基于检索的方法和现代的语言生成技术来提升自然语言处理任务的效果[^3]。 ### 工作原理详解 #### 数据获取阶段 在数据准备过程中,RAG利用外部知识库作为补充资源。当接收到输入查询时,系统首先会在预先构建的知识图谱或其他形式的大规模语料库中执行信息检索操作,找到最有可能帮助完成当前对话或任务的相关片段。 #### 动态上下文集成 不同于静态预训练模式下的纯生成方式,在线检索到的具体实例会被即时融入到解码器端口处,使得每次预测都能依据最新获得的真实世界证据来进行调整优化。这一特性赋予了RAG更强的情境适应能力,尤其是在面对开放领域问答、多轮次交互式聊天等复杂场景下表现尤为突出。 #### 双重评分机制 为了确保最终输出的质量,RAG采用了两步走策略:先是从候选集中挑选出若干高质量的回答选项;再经过一轮精细评估后决定最佳回复方案。具体来说就是分别计算每条建议得分——一方面考量它与原始请求之间的匹配度;另一方面也要顾及内部连贯性和逻辑一致性等因素。 ```python def rag_model_inference(query, knowledge_base): retrieved_docs = retrieve_relevant_documents(query, knowledge_base) generated_responses = [] for doc in retrieved_docs: response = generate_response_based_on_document(doc) generated_responses.append(response) best_response = select_best_response(generated_responses) return best_response ``` ### 应用案例分析 实际应用方面,《大模型RAG实战:RAG原理、应用与系统构建》一书中提供了丰富的实践指导和技术细节解析,涵盖了从理论基础到工程实现再到部署上线全流程的内容介绍。对于希望深入了解并掌握这项前沿技术的研究人员而言,这本书籍无疑是一个宝贵的学习资料来源[^1]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值