构建生产环境中的大型语言模型(LLMs)——LLM的实践应用

理解幻觉和偏见

在过去几年里,我们在人工智能领域取得了令人瞩目的成就,但现成的基础模型仍然存在限制,这些限制限制了它们在生产环境中的直接使用,即使是最简单的任务也是如此。LLM的核心是从互联网上、书籍和文章中收集的大量数据中学习。虽然这些数据丰富而有信息量,但也充满了不准确性和社会偏见。在尝试理解这些数据时,LLM有时会得出错误的结论,从而导致幻觉和偏见。解决、理解和解决这些问题将是人工智能广泛应用的关键步骤。

LLM中的幻觉

大型语言模型(LLM)中的幻觉是指模型生成的文本不正确且不符合现实。这种现象涉及模型自信地生成没有依据的响应。幻觉在LLM中的发生由几个因素导致:

  • LLM可能在缺乏回答特定问题所需知识的数据集上进行训练。
  • 这些模型通常缺乏验证其输出事实准确性的机制,导致可能令人信服但不正确的回应。
  • 训练数据可能包含虚构和主观内容,包括意见或信仰。
  • LLM设计时未考虑表达不确定性或承认信息不足。当面对不充分的数据时,LLM可能会生成最可能的文本序列作为回应。然而,“最可能”并不意味着“真实”。这种不一致也可能导致幻觉,因为语言模型的主要目标是学习语言的单词分布模式,而不是区分真实与虚假的陈述。

以下是一个例子:Databricks于2023年4月12日宣布了“Dolly 2.0”,这是一个开源的120亿参数语言模型,使用一个创建的用于跟随人类指令的数据集进行微调。GPT-3.5的训练数据截至2022年,因此对Dolly 2没有信息。当GPT-3.5被问到“Databricks的Dolly对开源社区是否有价值?”时,它的回应可能是: GPT-3.5:Databricks Dolly是Databricks的一项创作,旨在帮助用户在平台之间转移数据,特别是从本地数据中心到AWS或Azure等云平台。尽管Databricks Dolly不是开源的,但它可能在几个方面为开源社区提供了好处。[……] 除了正确识别“Databricks Dolly”是Databricks公司的产品外,这个回答还包含了几个不准确的地方。它错误地将Dolly呈现为数据迁移工具。然而,由于GPT-3.5知道Databricks是一家公司,它生成了一个听起来合理但不正确的Dolly 2描述,作为Databricks的典型产品。

这只是OpenAI的GPT-3.5中的一个幻觉示例,但这个问题并非仅限于该模型。所有类似的LLM,如Bard或LLaMA,也表现出这种行为。

大型语言模型(LLM)可能生成看似可信但在事实方面不准确的内容,原因在于它们有限的理解真相和验证事实的能力。这使得它们无意中容易传播错误信息。此外,有恶意意图的个人可能会故意利用LLM传播虚假信息,制造和放大虚假叙事。根据Blackberry的一项研究,大约49%的受访者认为GPT-4可能被用于传播错误信息。通过LLM不受控制地发布这种不准确的信息可能对社会、文化、经济和政治领域产生深远的影响。解决与LLM幻觉相关的这些挑战对于模型的伦理应用至关重要。

减少幻觉的一些策略包括调整指导文本生成的参数、改善训练数据的质量、精心编写提示和使用检索器架构。检索器架构帮助将响应锚定在特定文档中,为模型的输出提供现实基础。

提高LLM准确性

调整文本生成参数

参数如温度、频率惩罚、出现惩罚和top-p对LLM输出有显著影响。较低的温度值会导致更可预测和可复现的响应。频率惩罚使得模型在生成过程中更少重复使用相同的词汇。增加出现惩罚会促使模型生成新的、之前未出现过的词汇。参数“top-p”通过定义选择词汇的累积概率阈值来控制响应的多样性,从而定制模型的响应范围。所有这些因素都有助于降低幻觉的风险。

利用检索器架构整合外部文档

通过外部文档整合领域特定的知识,可以提高LLM的准确性。此过程更新了模型的知识库,使其能够基于新的知识库生成响应。当提交查询时,通过“检索器”模块检索相关文档,从而改进模型的回应。这种方法是检索器架构的核心部分,这些架构的工作原理如下:

  1. 系统在接收到问题后,生成该问题的嵌入表示。
  2. 利用这个嵌入在文档数据库中进行语义搜索(通过比较嵌入和计算相似性评分)。
  3. LLM使用排名靠前的检索文本作为上下文来提供最终回答。通常,LLM必须从上下文段落中仔细提取答案,而不是编写无法从中推断出的内容。

检索增强生成(RAG)是一种通过添加来自外部来源的数据来增强语言模型能力的技术。这些信息与模型提示中已经包含的上下文相结合,使模型能够提供更准确和相关的响应。

在生成阶段访问外部数据源显著改善了模型的知识基础和基础。这种方法通过引导模型生成准确和上下文适当的响应,减少了模型产生幻觉的可能性。

LLMs中的偏见

大型语言模型(LLMs),包括GPT-3.5和GPT-4,引发了显著的隐私和伦理问题。研究表明,这些模型可能存在内在偏见,从而生成带有偏见或冒犯性的语言。这加剧了与它们的应用和监管相关的问题。

LLM的偏见源于多种因素,包括数据、标注过程、输入表示、模型以及研究方法。

训练数据缺乏语言多样性可能导致人口统计偏见。大型语言模型可能无意中从其训练数据中学习到刻板印象,从而产生基于种族、性别、宗教和民族的歧视性内容。例如,如果训练数据中包含偏见信息,LLM可能会生成将女性描绘为从属角色或将某些民族描述为天生暴力或不可靠的内容。同样,基于仇恨言论或有毒内容的数据训练模型可能会产生有害输出,强化负面刻板印象和偏见。

减少LLMs偏见:宪法AI

宪法AI是由Anthropic研究人员开发的一个框架,旨在使AI系统符合人类价值观,重点在于使其有益、安全和可信。

最初,模型通过一组既定原则和有限的示例进行训练,以评估和调整其响应。随后进行强化学习训练,在此过程中,模型使用基于这些原则生成的AI反馈来选择最合适的回应,从而减少对人工反馈的依赖。

宪法AI采用自我监督训练等方法,使AI能够适应其指导原则,而无需直接的人类监督。

该策略还创建了约束优化技术,确保AI在其宪法设定的参数内追求有用性。为了行动、减少偏见和幻觉,并改善结果,我们首先需要评估模型的表现。这是通过统一的基准和评估过程来完成的。

评估LLM性能

大型语言模型的进步依赖于准确评估其在基准测试中的表现。准确评估LLM性能需要采用多方面的方法,结合各种基准和指标来衡量其在不同任务和领域中的能力。

目标函数和评估指标

目标函数和评估指标是机器学习模型的关键组成部分。

目标函数或损失函数是模型训练阶段应用的关键数学公式。它根据模型参数分配一个损失分数。在训练过程中,学习算法计算损失函数的梯度,并调整模型参数以最小化该分数。因此,损失函数应具有可微性,并具备光滑的形式以便于有效学习。

交叉熵损失是大型语言模型(LLMs)常用的目标函数。在因果语言建模中,模型从预定列表中预测下一个标记,这实质上转化为分类问题。

评估指标是用来以人类易于理解的方式衡量模型性能的工具。这些指标在训练过程中并未直接应用,因此不一定需要可微性,因为其梯度并不要求。常见的评估指标包括准确率、精确率、召回率、F1分数和均方误差。对于大型语言模型(LLMs),评估指标可以分为:

  • 内在指标,这些指标直接与训练目标相关。一个知名的内在指标是困惑度(Perplexity)。
  • 外在指标,这些指标评估模型在各种下游任务中的表现,与训练目标没有直接关联。外在指标的流行例子包括GLUE、SuperGLUE、BIG-bench、HELM和FLASK等基准框架。

困惑度评估指标

困惑度指标用于评估大型语言模型(LLMs)的性能。它评估语言模型预测特定样本或词序列(如句子)的有效性。困惑度值越低,表示语言模型的能力越强。

LLMs旨在模拟句子中词汇的概率分布,使其能够生成类似人类的句子。困惑度衡量模型在确定词序列的概率时遇到的“不确定性”或“困惑”。

测量困惑度的第一步是计算句子的概率。这是通过将分配给每个词的概率相乘来完成的。由于较长的句子通常会导致较低的概率(由于多个小于1的因素相乘),困惑度引入了归一化。归一化通过将概率除以句子的词数并计算几何平均数,使得不同长度句子之间的比较更有意义。

困惑度示例

考虑以下示例:一个语言模型被训练来预测句子中的下一个词:“一只红狐狸”。一个合格的LLM对这个句子的预测词概率可能如下:

P(“a red fox.”) = P(“a”) * P(“red” | “a”) * P(“fox” | “a red”) * P(“.” | “a red fox”)
P(“a red fox.”) = 0.4 * 0.27 * 0.55 * 0.79
P(“a red fox.”) = 0.0469

为了有效比较不同句子的概率,考虑句子长度对这些概率的影响。通常,由于多个因素相乘,每个因素小于1,句子的概率会降低。这可以通过一种测量句子概率而不依赖于句子长度的方法来解决。

将句子概率按词数归一化也可以缓解句子长度变化的影响。这种技术对构成句子概率的多个因素进行平均,从而提供更平衡的比较。有关更多信息,请参阅维基百科上的“几何平均数”页面。

我们称Pnorm(W)为句子W的归一化概率。让n为W中的词数。那么,应用几何平均数: Pnorm(W) = P(W) ^ (1 / n)

对于我们特定的句子,“一只红狐狸”: Pnorm(“a red fox.”) = P(“a red fox”) ^ (1 / 4) = 0.465

这个值现在可以用来比较不同长度句子的可能性。语言模型越好,这个值越高。

这与困惑度有什么关系?困惑度只是这个值的倒数。我们称PP(W)为句子W的困惑度。那么: PP(W) = 1 / Pnorm(W)
PP(W) = 1 / (P(W) ^ (1 / n))
PP(W) = (1 / P(W)) ^ (1 / n)

用numpy计算:

import numpy as np

probabilities = np.array([0.4, 0.27, 0.55, 0.79])
sentence_probability = probabilities.prod()
sentence_probability_normalized = sentence_probability ** (1 / len(probabilities))
perplexity = 1 / sentence_probability_normalized
print(perplexity) # 2.1485556947850033

如果我们进一步训练LLM,下一个最佳词的概率会变得更高。最终的困惑度会更高还是更低?

probabilities = np.array([0.7, 0.5, 0.6, 0.9])
sentence_probability = probabilities.prod()
sentence_probability_normalized = sentence_probability ** (1 / len(probabilities))
perplexity = 1 / sentence_probability_normalized
print(perplexity) # 1.516647134682679 -> 更低

GLUE基准

通用语言理解评估(GLUE)基准包含九个不同的英语句子理解任务,分为三类:

  • 第一类,单句任务,测试模型识别语法正确性(CoLA)和情感极性(SST-2)的能力。
  • 第二类,相似性和释义任务,测量模型识别句子对中的释义(MRPC和QQP)和判断句子相似性(STS-B)的能力。
  • 第三类,推理任务,评估模型处理句子蕴含和关系的能力,包括识别文本蕴含(RTE)、基于句子信息解读问题(QNLI)和解码代词引用(WNLI)。

GLUE的整体得分通过平均所有九个任务的结果计算得出。GLUE是评估和理解不同NLP模型的优缺点的综合平台。

SuperGLUE基准

SuperGLUE基准是对GLUE基准的升级,引入了更复杂的任务来挑战当前的NLP方法。SuperGLUE的显著特点包括:

  • 任务:SuperGLUE具有八种多样的语言理解任务,包括布尔问题回答、文本蕴含、共指消解、涉及常识推理的阅读理解和词义消歧等。
  • 难度:SuperGLUE通过保留GLUE中最具挑战性的任务,并结合新的任务来解决当前NLP模型的局限性,从而实现更高的复杂度,使其更贴近现实语言理解情况。
  • 人类基线:SuperGLUE为每个指标提供人类表现的估计。这一特性有助于将NLP模型的能力与人类语言处理水平进行比较。
  • 评估:NLP模型在这些任务上的表现通过整体得分进行评估和量化。这个得分通过平均所有单独任务的结果得出。

BIG-Bench基准

BIG-Bench基准是一个综合而多样的评估平台,用于评估LLM的能力。它包含204多个语言任务,涵盖不同主题和语言,提出了当前模型无法完全解决的挑战。

BIG-Bench提供两类任务:JSON任务和编程任务。JSON任务通过比较输出和目标对来评估,而编程任务则使用Python评估文本生成和条件对数概率。这些任务包括代码编写、常识推理、游戏玩法、语言学等。

研究表明,更大的模型通常表现出更好的综合性能,但仍未达到人类能力水平。此外,随着规模的增加和稀疏性的引入,模型预测的准确性会提高。

BIG-Bench被视为“活跃基准”,持续接受新的任务提交以进行同行评审。该基准的代码是开源的,并可在GitHub上访问。

HELM基准

语言模型的整体评估(HELM)基准旨在解决比较语言模型的全面标准需求。HELM基于三个主要组件构建:

  • 广泛覆盖和不完整性的认可:HELM在各种场景中进行评估,涵盖不同的任务、领域、语言和用户中心的应用。它承认无法覆盖每个场景,但有意识地识别关键场景和缺失指标,突出改进领域。
  • 多指标测量:与之前仅依赖准确性的基准不同,HELM使用多指标方法评估语言模型。它包含七个指标:准确性、校准、鲁棒性、公平性、偏见、毒性和效率。这一多样化的标准集确保了更全面的评估。
  • 标准化:HELM专注于标准化不同语言模型的评估过程。它通过使用少量示例提示的统一适配过程来比较各种模型。通过评估来自多个提供商的30个模型,HELM创建了一个更透明和可靠的语言技术基础。

FLASK基准

FLASK(基于对齐技能集的细粒度语言模型评估)基准是针对大型语言模型(LLMs)的详细评估协议。它将评估过程划分为12个不同的实例技能集,每个技能集代表模型能力的一个重要维度。

这些技能集包括逻辑正确性、逻辑效率、事实性、常识理解、理解力、洞察力、完整性、元认知、可读性、简洁性和无害性。

通过将评估划分为特定的技能集,FLASK有助于对模型在各种任务、领域和难度水平上的表现进行精确和深入的评估。这种方法提供了对语言模型的优缺点的详细和细致的洞察,并帮助研究人员/开发人员以集中方式改进模型,解决NLP中的特定挑战。

💡 相关基准的研究论文可以在towardsai.net/book上查阅。

控制LLM输出

解码方法

解码方法是大型语言模型(LLM)用于文本生成的核心技术。在解码过程中,LLM会给每个词汇标记分配一个分数,分数越高,表示该标记作为下一个选择的可能性越大。模型在训练过程中学习的模式决定了这些分数。

然而,最高概率的标记并不总是最适合的下一个标记。选择第一个步骤中的最高概率标记可能会导致后续标记的概率较低,从而导致整体联合概率较低。相反,选择一个略低概率的标记可能会在接下来的步骤中导致更高概率的标记,从而整体实现更高的联合概率。虽然理想,但计算所有词汇标记在多个步骤上的概率由于计算需求过高而不切实际。

以下解码方法旨在在以下两者之间找到平衡:

  • 通过立即选择最高概率标记来“贪婪”地进行。
  • 允许一定的探索,通过同时预测多个标记来增强整体连贯性和上下文相关性。

贪婪搜索

贪婪搜索是最基本的解码方法,模型总是选择下一个输出中最高概率的标记。贪婪搜索在计算上高效,但往往会产生重复或次优的响应。这是因为它优先考虑立即出现的最可能标记,而忽略了从长远来看输出的整体质量。

采样

采样在文本生成中引入了随机性。在这里,模型根据标记的概率分布随机选择下一个词。这种方法可以产生更为多样化的输出。然而,由于选择并不仅仅基于最高概率,这可能会导致生成的文本有时缺乏连贯性或逻辑性。

束搜索

束搜索是一种更高级的解码策略。它在每一步选择前N个最有可能的候选标记(N是预定义的参数),但仅限于有限的步骤。最终,模型生成具有最高整体联合概率的序列(即束)。

这种方法缩小了搜索空间,通常导致更连贯的结果。束搜索可能较慢,并且不总是能产生最佳输出。它可能会错过高概率的词汇,特别是当它们前面是低概率词汇时。

Top-K 采样

Top-K采样是一种技术,其中模型将选择池限制在K个最可能的词汇(K是参数)。这种方法在文本中创造了多样性,通过减少选择范围确保相关性,并提供对输出的更好控制。

Top-p(Nucleus)采样

Top-p或Nucleus采样从组合概率超过指定阈值P(P是参数)的最小标记组中选择词汇。这种技术通过排除稀有或不太可能的标记来实现精确的输出控制。这种方法的一个挑战是短名单的大小变化的不确定性。

影响文本生成的参数

除了解码方法,还有几个参数可以调整以影响文本生成。关键参数包括温度、停止序列、频率和存在惩罚,这些参数可以通过最受欢迎的LLM API和Hugging Face模型进行调整。

温度

温度参数在平衡文本生成的不可预测性和确定性中至关重要。较低的温度设置生成的输出更具确定性和集中性,而较高的温度设置引入随机性,生成多样化的输出。这个参数通过在文本生成过程中调整logits来实现平衡,从而确保输出的多样性和质量之间的平衡。

  • Logits:语言模型预测过程的核心是生成logit向量。每个潜在的下一个标记都有一个对应的logit,反映了它的初始未调整预测分数。

  • Softmax:这个函数将logits转化为概率。softmax函数的一个关键特性是确保这些概率的总和为1。

  • 温度:这个参数决定了输出的随机性。在softmax阶段之前,logits会被温度值除以。

    • 高温度(例如 > 1) :温度升高时,logits会减少,从而导致softmax输出更加均匀。这增强了模型选择不太可能的术语的可能性,从而产生更多样化和创新的输出,偶尔可能包含更高的错误率或不合逻辑的短语。
    • 低温度(例如 < 1) :较低的温度会增加logits,从而导致softmax输出更为集中。结果,模型更可能选择最可能的词汇,从而生成更准确和保守的输出,具有更大的概率但多样性较低。
    • 温度 = 1:当温度设置为1时,不对logits进行缩放,保持底层概率分布。这种选择被视为平衡或中立的。

总而言之,温度参数是一个控制多样性(高温度)和正确性(低温度)之间权衡的调节钮。

停止序列

停止序列是指定的字符序列,一旦出现在输出中,便会终止文本生成过程。这些序列使得控制生成文本的长度和结构成为可能,确保输出符合规格要求。

频率和存在惩罚

频率和存在惩罚是管理生成文本中单词重复的机制。频率惩罚减少模型重复出现的标记的概率。存在惩罚则旨在防止模型重复任何在文本中出现过的标记,无论其频率如何。

预训练和微调LLMs

预训练LLMs

预训练LLMs通过吸收大量的文本数据来获取知识,使它们能够执行各种语言相关任务。预训练的LLMs在互联网上收集的大规模文本数据集上进行训练,通过预测句子中的下一个词汇来磨练其语言技能。这种在数十亿句子上的广泛训练使它们能够发展对语法、上下文和语义的全面理解,从而有效地把握语言的细微差别。

预训练的LLMs在文本生成之外显示出多种任务的多功能性。这在2020年GPT-3论文《语言模型是少样本学习者》中尤为明显。研究揭示了足够大的LLMs是“少样本学习者”——能够仅使用少量的任务特定示例来理解用户需求的潜在逻辑,从而执行超越文本生成的任务。这一突破代表了自然语言处理(NLP)领域的重要进展,之前的NLP依赖于为每个任务分别训练的模型。

微调LLMs

微调是提高预训练模型在特定任务上能力的必要技术。虽然预训练的大型语言模型(LLMs)对语言有深刻的理解,但通过微调可以充分发挥它们的潜力。

微调通过将LLMs暴露于特定任务的数据集,将其转化为专家。这使得预训练的模型能够调整其内部参数和表示,以更好地适应特定任务。这种量身定制的适应显著提高了它们在领域特定任务上的表现。例如,针对医学问答对数据集进行微调的模型将能高效地回答与医学相关的问题。

微调的需求源于预训练模型的通用性。虽然它们对语言有广泛的理解,但它们并不固有地具备特定任务的上下文。例如,在处理金融新闻的情感分析时,微调就显得尤为重要。

指令微调:创造通用助手

指令微调是一种不同的微调形式,通过对模型行为的控制,将其转化为通用助手。它旨在创建一个将提示理解为指令而非文本的LLM。例如,考虑以下提示:

“法国的首都是什么?”

一个经过指令微调的LLM可能会将这个提示解释为指令,并给出以下回答:

“巴黎。”

然而,一个普通的LLM可能会认为我们是在为地理学生编写练习题,并继续生成最可能的标记,可能会产生一个新问题:

“意大利的首都是什么?”

指令微调扩展了模型的能力。这个过程引导模型产生符合您愿景的结果。例如,当您提示模型“分析这段文本的情感并确定它是否积极”时,您通过明确的命令指导模型。通过指令微调,提供了明确的指示,雕刻了模型的行为,使其反映我们的目标。

指令微调通过使用指令训练模型在多个任务上。这使得LLMs能够通过附加的指令学习执行新任务。这种方法不需要大量任务特定的数据,而是依靠文本指令来指导学习过程。

传统的微调使模型熟悉与任务相关的特定数据集。指令微调则通过将明确的指令融入训练过程来进一步推进。这种方法赋予了开发人员更大的控制权,使他们能够塑造结果、鼓励特定行为,并指导模型的响应。

微调技术

多种方法专注于用于微调的学习算法,例如:

  • 完全微调:这种技术调整预训练大型语言模型(LLM)中的所有参数,以使其适应特定任务。虽然有效,但完全微调需要大量计算能力,使其成本较高。
  • 低秩适配(LoRA) :LoRA在LLMs的下游层采用低秩近似。这种技术通过微调LLMs以适应特定任务和数据集来优化计算资源和开支。它显著减少了需要训练的参数数量,从而降低了GPU内存需求和总训练费用。此外,LoRA的变体QLoRA通过参数量化引入了进一步的优化。
  • 监督微调(SFT) :SFT是一种标准方法,其中经过训练的LLM在有限样本数据上进行监督微调。样本数据通常包括示范数据、提示和相应的响应。模型从这些数据中学习,并生成与预期输出一致的响应。SFT甚至可以用于指令微调。
  • 来自人类反馈的强化学习(RLHF) :RLHF方法通过多次迭代逐步训练模型,使其与人类反馈保持一致。这种方法可能比SFT更有效,因为它基于人类输入促进了持续改进。类似的方法包括直接偏好优化(DPO)和来自AI反馈的强化学习(RLAIF)。

总结

虽然LLMs在某些任务上表现出色,但了解它们的局限性是广泛采用人工智能的关键步骤。当模型生成的文本不准确且与现实无关时,会发生“幻觉”。这种现象涉及模型在没有训练数据基础的情况下,自信地产生响应。制定有效的策略来应对这些挑战至关重要。这些策略应包括输入的预处理和控制措施、模型配置的调整、增强机制,以及增强上下文和知识的技术。融入伦理指南对于确保模型生成公平可信的输出至关重要。这是负责任使用这些先进技术的关键步骤。

在实践中,提高LLM效率需要准确评估其性能。目标函数和评估指标是机器学习模型的关键组件。目标或损失函数通过调整模型参数来引导算法减少损失分数。对于LLMs,交叉熵损失是常用的目标函数。评估指标提供了对模型能力的可理解评估。困惑度(Perplexity)是一种内在指标,用于衡量LLM预测样本或词序列的能力。

LLM评估涵盖了广泛的挑战,从了解模型理解和生成类似人类的文本的能力,到评估其执行特定任务(如语言翻译、摘要生成或问答)的能力。基准测试作为对模型进行测试的标准化任务或数据集,提供了比较不同架构和版本的基础。流行的评估基准包括GLUE、SuperGLUE、BIG-bench、HELM和FLASK。同时,指标提供了可量化的性能测量,允许研究人员和开发人员评估模型行为的各个方面,如准确性、流利性、连贯性和效率。

评估策略测量输出的相关性,而解码方法、温度等参数、停止序列、频率和存在惩罚等参数,以及零样本和少样本提示等技术,在生成过程前/中提高模型的有效性。

解码方法是LLMs用于文本生成的基本技术。在解码过程中,LLM为每个词汇标记分配一个分数,较高的分数表示该标记作为下一个选择的可能性更大。然而,最高概率的标记并不总是下一个标记的最佳选择。解码方法如贪婪搜索、采样、束搜索、Top-K采样和Top-p(核)采样旨在在立即选择概率最高的标记和允许一定的探索之间找到平衡。

参数如温度、停止序列、频率和存在惩罚以及论据对于精细化文本生成控制至关重要。调整这些参数可以使模型生成符合特定要求的输出,从确定性和集中性到多样性和创造性。

预训练为LLMs奠定了基础,通过暴露于大量文本数据。微调填补了通用理解和专业知识之间的差距,使LLMs能够在特定领域表现出色。指令微调将LLMs转化为可适应的助手,通过明确的指令对其行为进行精细控制。微调策略如完全微调和资源节约的低秩适配(LoRA),以及学习方法如监督微调(SFT)和来自人类反馈的强化学习(RLHF),各自提供了特定的优势。

在这里插入图片描述

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

  • 7
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值