大语言模型系列-总述

本文介绍了NLP的基本概念,包括自然语言理解和生成的核心任务,以及大语言模型的发展历程,重点讨论了Transformer架构下的Decoder-only、Encoder-only和Encoder-Decoder技术路线。文章还列举了关键的必读论文及其影响。
摘要由CSDN通过智能技术生成

一、NLP简述

按模态分,AI的主流研究领域可以分为:

  • NLP(文本)
  • CV(图像)
  • 语音
  • 多模态

自Transformer发布以来,NLP迎来爆发式增长,成为AI目前发展最快的领域,大语言模型正式基于此背景产生的。

NLP 有2个核心的任务:

  • 自然语言理解(NLU)
  • 自然语言生成(NLG)

传统机器学习的 NLP 流程

  1. 获取文本数据,创建语料库

  2. 语料预处理:

    • 清洗文本数据,去除不需要的信息,如标点符号、特殊字符。
    • 分词:将文本划分为单词或标记,这是分析文本的基础。
    • 词干化(Stemming)和词形还原(Lemmatization):将单词转换为其基本形式,减少词汇的变化形式。
    • 停用词去除:去除常见但无实际含义的词语,如“and”、“the”等。
  3. 特征工程:将分词表示为计算机能够识别的类型,一般为向量
    在这里插入图片描述

  4. 特征选择

  5. 建模

在这里插入图片描述

二、大语言模型发展史

研究人员发现,扩展预训练模型(Pre-training Language Model,PLM),例如扩展模型大小或数据大小,通常会提高下游任务的模型性能,模型大小从几十亿(1 B = 10亿)逐步扩展至千亿级别,后续研究者们将大型的PLM称之为LLM(Large Language Model)

从下图中可以看出大语言模型的发展阶段

在这里插入图片描述

从下图中可以看出近年来主流的大语言模型

在这里插入图片描述

OpenAI发展史

![[Pasted image 20231214154447.png]]

三、大模型的技术路线

![[Pasted image 20231213091014.png]]

从上图中可以看出,目前LLM的技术路线都是基于Transfomer架构的,主要分为Decoder only、Encoder only、Encoder-Decoder三种:

技术路线预训练架构模型描述
Decoder onlyCausal LM/Left-to-right LMGPT-1,GPT-2,GPT-3,LLaMA等具有自回归特性,只能看到历史输入序列,预测下一个token仅依赖于当前和历史输入,而不能参考后续输入信息,既能处理自然语言生成式任务(NLG),又能处理自然语言理解式任务(NLU)。
Encoder onlyMasked LMBERT,RoBERTa等不具有自回归特性,更适合于自然语言理解式任务(NLU),包括文本分类、情感分析,命名实体识别。
Encoder-DecoderTransformer LMT5, BART等擅长处理输入和输出序列之间存在复杂映射关系的任务,比如翻译和文本总结。
Encoder-DecoderPrefix LMUniLM、GLM等可以看到输入序列的前几个token作为条件上下文,在预测下一个token时同时参考前后信息,模型轻于Transformer LM,生成类任务的效果相差不大,语言理解类任务则存在明显差距。

![[Pasted image 20240115160337.png]]

四、必读论文

类别流程/算法论文、年份Google学术引用次数
Transormer《Attention is all you need》,2017104596
Decoder only
GPT-1《Improving language understanding by generative pre-training》,20187365
GPT-2《Language models are unsupervised multitask learners》,20197780
GPT-3《Language models are few-shot learners》,202017941
GPT-3.5(ChatGPT)《Training language models to follow instructions with human feedback》,20223535
Llama《Llama: Open and efficient foundation language models》,20232974
Llama 2《Llama 2: Open Foundation and Fine-Tuned Chat Models》,20231345
Encoder only
BERT《Bert: Pre-training of deep bidirectional transformers for language understanding》,201885950
RoBERTa《Roberta: A robustly optimized bert pretraining approach》,201910439
Encoder-Decoder
T5《Exploring the limits of transfer learning with a unified text-to-text transformer》,202012381
BART《Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension》,20197495
  • 29
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

学海一叶

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值