一些LLM的知识

文章探讨了大模型常用的数据集,如HumanEval、SQuAD和NaturalQuestions等,以及PromptTuning技术如何改进自然语言提示的局限性,包括P-TuningV1和Adaptertuning等方法。预训练的自回归策略和指令微调在提升模型性能中的作用也被提及。此外,文章还强调了NLU在理解和处理文本信息中的关键角色。
摘要由CSDN通过智能技术生成

大模型常用基准数据集

  • 代码:数据集HumanEval和MBPP
  • 常识推理: 数据集PIQA,SIQA,HellaSwag,WinoGrande,ARC easy and challenge,OpenBookQA,CommonsenseQA
  • 知识面:NaturalQuestions和TriviaQA
  • 阅读理解能力:SQuAD,QuAC,BoolQ
  • 数学能力:GSM8K,MATH

Prompt

prompt最初有人工设计Prompt,自然语言提示本身十分脆弱,选择不同的Prompt对下游任务的性能影响较大,而且从优化角度无法达到最优。
为了消除这一影响,Prompt Tuning技术应运而生,P-Tuning V1将自然语言提示的token,替换为可训练的嵌入,同时利用LSTM进行Reparamerization加速训练,并引入少量自然语言提示的锚字符(anchor)进一步提升效果。

Tuning方法

  • Houlsby提出的Adapter tuning 增加模型层数
  • 微软 Lora
  • 斯坦福 Prefix-Tuning
  • 谷歌 Prompt Tuning
  • 清华 P-tuning V2
  • Fine-Tuning 全参数微调

自回归

预训练是做自回归,即随机地把文本的某些单次通过mask遮挡起来,通过文本的上下文来预测被遮挡的词是什么,本质上是无监督学习,不需要人工贴标签,所以可以收集海量的数据进行预训练

指令微调

指令微调是根据下游任务的需求收集指令数据集在预训练的基础模型上进一步训练。
指令数据集由输入和输出两部分组成,输入就是人给机器下达的指令或者问机器的问题,当然可以包含背景知识,输出就是机器对于指令或者问题的回复。
当前比较主流的指令数据集的格式有两种,一种是instruction,input和output。instruction为指令,input为背景,output为机器回复。
另一种是input和output,将当前的instruction和input合并作为input,output一样。

NLU 自然语言理解

NLU 自然语言理解(Natural Language Understanding, NLU)是所有支持机器理解文本内容的方法模型或任务的总称。
NLU在文本信息处理处理系统中扮演着非常重要的角色,是推荐、问答、搜索等系统的必备模块。
本文介绍了NLU和NLP、NLG的关系,并基于数据流将NLU的内容进行整理,最后对文本分类、文本聚类和NER这3种典型任务的目标和思路进行了简单说明。

Token

在大型语言模型中,"token"是指文本中的一个最小单位。
通常,一个token可以是一个单词、一个标点符号、一个数字、一个符号等。
在自然语言处理中,tokenization是将一个句子或文本分成tokens的过程。

在大型语言模型的训练和应用中,模型接收一串tokens作为输入,并尝试预测下一个最可能的token。
对于很多模型来说,tokens还可以通过embedding操作转换为向量表示,以便在神经网络中进行处理。
由于大型语言模型处理的文本非常大,因此对于处理速度和内存占用等方面的考虑,通常会使用特定的tokenization方法,例如基于字节对编码(byte-pair encoding,BPE)或者WordPiece等算法。

LongChain LLM (LongChain Library Map) 是一个建立在LongChain区块链上的知识图谱项目。LongChain LLM 旨在构建一个全球范围的知识图谱,用于整合和存储各种领域的知识数据,并为用户提供高效、便捷的知识检索和应用服务。 LongChain LLM 的设计理念是将区块链技术与知识图谱相结合,利用区块链的去中心化、不可篡改、安全可信的特性,构建一个具有可持续性和长期稳定性的知识图谱平台。通过LongChain区块链的分布式存储和智能合约功能,可以确保知识图谱的数据安全性和完整性,防止数据被篡改或丢失。 在LongChain LLM 中,用户可以上传、分享、检索各种类型的知识数据,包括文字、图片、音频、视频等多媒体信息。同时,LongChain LLM 还提供了丰富的数据标注和链接功能,可以将不同领域的知识数据进行关联和整合,形成更加完整和多维度的知识图谱网络,为用户提供更丰富和全面的知识检索和应用服务。 通过LongChain LLM,用户可以方便地查询和获取各种知识信息,为科研、教育、商业等领域的用户提供便捷的知识支持和服务。同时,LongChain LLM 还可以在智能合约的支持下,实现知识数据的交易和共享,为知识创造和分享提供更加灵活和可持续的机制。 总之,LongChain LLM 作为一个基于区块链技术的知识图谱项目,将为全球用户提供高效、安全、可信的知识管理和服务平台,具有广阔的发展前景和重大的社会价值。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值