【大模型】大模型基础知识

几个常用术语

  • 模型=公式+参数

  • K矩阵:字典
    V矩阵:关键字的权重数值

  • AGI:通用人工智能

  • 分词、词性关联、词性标注、知识图谱。分词操作是AI的开发,但是离AGI越来越远。自注意力机制的核心思想是摒弃分词等操作,面向更通用的场景去实现

  • 大模型全称大语言模型:LLM

  • 大模型技术:
    一阶技术:
    二阶技术:向量数据库,向量检索,LangChain,sk,智能体
    三阶技术:Fine-tune(模型定制,专业领域,垂直行业等场景)

  • GPT1,2,3,3.5 都有一篇论文,4只有一篇技术报告

  • RL :reinforcement learing 强化学习。RLHF:Reinforcement Learning fromHuman Feedback 基于人类反馈的强化学习

  • 开源模型:LLama,GLM,百川,羊驼模型

  • midjourney 画图软件;stable diffusion SD

1.GPT定义

GPT是[Generative Pre-trained Transformer]的缩写,意为生成式预训练变换器.

  • G 代表 Generative (生成式): 这是一种机器学习模型,其目标是学习数据的分布,并能生成与训练数据相似的新数据。在自然语言处理 (NLP)领域,生成式模型可以生成类似于人类所写的文本。GPT模型作为一个生成式模型,能够根据给定的上下文生成连贯的文本。

  • P 代表 Pre-trained(预训练): 预训练是深度学习领域的一种常见方法,通过在大规模数据集上进行训练,模型学习到一般的知识和特征。这些预训练的模型可以作为基础模型,针对具体任务进行微调。GPT模型通过预训练,在无标签的大规模文本数据集上学习语言模式和结构,为后续的任务提供基础。

  • T代表Transformer (变换器): Transformer 是一种在自然语言处理中广泛使用的神经网络结构它通过自注意力 (Self-Attention)机制有效地捕捉上下文信息,处理长距离依赖关系,并实现并行计算。GPT模型采用Transformer结构作为基础,从而在处理文本任务时表现出优越性能。

2.注意力机制-Attention Is All You Need

谷歌2017年发表论文《Attention Is All You Need》,在注意力机制的使用方面取得了很大的进步,对
Transformer模型做出了重大改进。
在这里插入图片描述

3.Transformer框架

Most competitive neural sequence transduction models have an encoder-decoder structure [5,2,35] .Here, the encoder maps an input sequence of symbol representations (x1,…,xn) to a sequenceof continuous representations z = (z1,…, zn ). Given z, the decoder then generates an outputsequence (y1, …, ym ) of symbols one element at a time. At each step the model is auto-regressive[10], consuming the previously generated symbols as additional input when generating the next.
The Transformer follows this overall architecture using stacked self-attention and point-wise, fullyconnected layers for both the encoder and decoder, shown in the left and right halves of Figure 1 respectively.

模型体系结构最有竞争力的神经序列转导模型的编码器-解码器结构[5,2,35],在这里,编码器映射符号表示的输入序列(X1,…,x)转换成一系列连续表示Z=(z1,…zn)。给定Z,解码器然后生成输出序列(y1,…ym)的符号,一次一个元素。模型在每一步都是自回归的[10],在生成下一个符号时,使用先前生成的符号作为附加输入。Transformer遵循这一总体架构,编码器和解码器都使用堆叠的自我关注和逐点全连接层,分别如图1的左半部分和右半部分所示

Transformer框架,左边是一个编码器模型,右边是一个解码器模型。
在这里插入图片描述

4.数据训练

To train the very first InstructGPT models, we asked labelers to write prompts themselves. This is because we needed an initial source of instruction-like prompts to bootstrap the process, and these kinds of prompts weren’t often submitted to the regular GPT-3 models on the API We asked labelersto write three kinds of prompts:

  • Plain: We simply ask the labelers to come up with an arbitrary task, while ensuring the tasks had sufficient diversity.
  • Few-shot: We ask the labelers to come up with an instruction, and multiple query/response pairs for that instruction.
  • User-based: We had a number of use-cases stated in waitlist applications to the OpenAl API. We asked labelers to come up with prompts corresponding to these use cases.

在这里插入图片描述

5.LangChain

(1).LangChain是个啥
  • 面向大模型的开发框架
  • 简单实现复杂功能的AI应用
  • 多组件封装
    LangChain是一个开源的框架,它可以让AI开发人员把像GPT-4这样的大型语言模型 (LLM)和外部数据结合起来。

用户可以利用LangChain的模块来改善大语言模型的使用,通过输入自己的知识库来“定制化”自己的大语言模型。

(2). LangChain官方教程
  • 很好的中文教程:
    https://github.com/liaokongVFX/LangChain-Chinese-Getting-Started-Guide
  • 中文官方:
    https://www.langchain.asia
  • 官方文档:
    https://python.langchain.com/docs/get_started/introduction.html
  • 官方代码:
    https://github.com/langchain-ai/langchain
(3). LangChain核心:组件/封装/模块

在这里插入图片描述

(4).IO 模块

在这里插入图片描述
在这里插入图片描述

6.Activation-aware Weight Quantization 的翻译是激活感知权重量化

7.大模型MOE(Mixture of Experts,混合专家模型)

是一种深度学习模型设计策略,它通过将多个模型(称为“专家”)直接结合在一起,以获得更好的预测性能。MOE架构的基本原理包括两个核心组件:GateNet和Experts。

GateNet:用来判断输入样本应该由哪个专家模型接管处理的网络。它可以理解为一个分配器,根据输入样本的特征,动态决策将其分配给哪个专家进行处理。这个过程可以通过一个softmax分类器来实现,其中每个神经元对应一个专家模型。GateNet的输出值表示了每个专家的权重。
Experts:一组相对独立的专家模型,每个专家负责处理特定的输入子空间。在MOE架构中,输入样本首先通过GateNet进行一个多分类的判别过程,确定最合适的专家模型。然后,选定的专家模型接管输入样本的处理,输出最终的预测结果。
MOE方案可以有效地提高大模型的容量和效率。具体而言,MOE有一套门控机制和一套门控输出机制来合并和平衡专家的选择,用于决定每个专家对最终预测的贡献。还有一套专家选择机制,会根据门控机制的输出选择一部分专家进行预测。这样可以减少计算量,并使模型能够针对不同的输入选择最合适的专家。

另外,GPT-4等大型模型也采用了MOE架构,它们由多个2200亿参数的MoE模型组成,从而实现了更高的性能和效率。

  • 21
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值