20篇NeurIPS论文精选:语言大模型的六大趋势

76c5a3ab33aee727002efb0f69eb8ce6.jpeg

本文总结了NeurIPS 2023大会上与自然语言处理相关的20篇精彩论文。通过这些论文,作者主要观察到了LLM的六个主要趋势,这些论文涉及重新思考LLM的基本假设,并为其内在运作提供了新的见解和观点。

本文作者Sebastian Ruder是Google Research研究员,发表了多篇机器学习和自然语言处理领域的顶级论文。(以下内容由OneFlow编译发布,转载请联系授权。原文:https://nlpnewsletter.substack.com/p/nlp-research-in-the-era-of-llms)

作者 | Sebastian Ruder

OneFlow编译

翻译|宛子琳、杨婷

NeurIPS 2023于12月10日至16日在新奥尔良举行,可以说是今年规模最大的人工智能会议。该会议共接收了3586篇论文,这些论文已经可在线阅读。

在这份简报中,我将探讨自己关注的20篇与自然语言处理(NLP)有关的论文,重点关注oral和spotlight论文。以下是我观察到的主要趋势:

NeurIPS上的大多数NLP工作都与语言大模型(LLM)相关。虽然也有一些不采用LLM或使用不同设置的论文(例如下文提到的“基于实时反馈的指令跟随持续学习),但论文的总体背景仍在LLM的框架内。

使用合成设置分析LLM属性的做法越来越普遍。这是因为运行许多不同的预训练实验在计算上是不可行的。研究的属性范围涵盖了从上下文学习,使用全局统计学习以及思维链(chain-of-thought)推理的涌现。

基于人类偏好对齐模型引起了广泛关注。论文特别关注改进RLHF和研究模型与特定人格特征、信念对齐的问题。

对上下文学习的全面理解仍然有待研究。论文研究了上下文学习的不同方面,例如它在训练期间是否持续存在,以及采用贝叶斯视角。

使用当前模型进行推理(Reasoning)仍然具有挑战性。论文侧重于改进在不同类型的推理任务中的性能,包括实用推理(pragmatic reasoning)、基于图的推理、算法推理、组合推理和基于规划的推理。

更多地使用外部工具来提高LLM的推理能力。这些工具包括外部验证器和代码执行模块等。

(需要注意的是,这些论文中提出的一些方法,比如DPO和QLoRA,已成功应用于LLM。)

1

重新思考LLM

这是我最喜欢的话题之一,因为这些论文鼓励我们重新思考关于LLM的基本假设,并为它们的内在运作提供了新的见解和视角。

词汇不变语言模型(Lexinvariant Language Models)

论文:https://openreview.net/forum?id=NiQTy0NW1L

本文提到,词元与嵌入之间的一一映射是LLM自最初的神经语言模型论文(https://www.jmlr.org/papers/volume3/bengio03a/bengio03a.pdf)以来一直没有改变的一个基本特征。该论文研究了语言建模是否也可以使用“lexinvariant”模型进行语言建模,即没有固定的词元嵌入,而是对每个序列分配相同概率的词汇排列。[1] 这似乎是一个强限制,但它可以作为一种有效的归纳偏好(inductive bias),用于恢复替代密码(通过MLP探测器)和上下文符号操作。

在实践中,词元使用随机高斯向量进行编码和采样,以确保相同的词元在一个序列内具有相同的表示,而在不同序列间具有不同的表示。虽然这种方法主要是出于理论兴趣,但通过仅对一些词元使用随机嵌入作为正则化,改善了某些BIG-bench任务的结果。

2

从人类反馈中学习

鉴于各种预训练LLM的激增,研究人员和从业者越来越关注LLM pipeline中的下一步改进:从人类反馈中学习。这对于最大化下游任务的性能以及LLM的对齐都非常重要。

直接偏好优化:你的语言模型其实是一个奖励模型

论文:https://openreview.net/pdf?id=HPuSIXJaa9

人类反馈的强化学习(RLHF)是更新LLM以与目标偏好对齐的首选方法,但相当复杂(需要首先训练奖励模型,然后根据奖励模型对LLM进行强化学习),并且可能会不稳定。这篇论文提出了直接偏好优化(DPO),可以通过对偏好数据进行简单的基于分类的目标优化来达到相同的目标,而无需进行任何强化学习!目标的一个重要组成部分是动态的针对每个示例的重要性权重。DPO有潜力使LLM与人类偏好更加无缝对齐,因此对安全研究至关重要。

细粒度的人类反馈为语言模型训练提供更好的奖励

论文:https://openreview.net/forum?id=CSbGXyCswu

本文解决了RLHF的另一个局限性,即无法对生成响应的错误部分提供更为细致的反馈。论文提出了细粒度RLHF,其中:a)使用了一个密集奖励模型(对每个输出句子进行奖励,而不是整个输出),b)结合了多个用于不同反馈的奖励模型。他们在模型的去毒化处理和长篇问答方面进行了实验,发现相比于RLHF和有监督微调,细粒度RLHF有所改进。重要的是,由于为RLHF提供人类偏好判断是一个复杂的标注任务,提供更细粒度的反馈实际上并不需要更多时间。我们预计,将会看到更多尝试在不同粒度上使用各种奖励模型的方法。

基于实时反馈的指令跟随持续学习

论文:https://openreview.net/forum?id=ez6Cb0ZGzG

这篇论文解决了在协作的3D世界环境中的人类反馈的持续学习的问题。他们展示了一种简单的方法:使用上下文Bandit算法来通过二进制奖励更新模型的策略。在多达11轮以上的训练和部署中,指令执行的准确率从66.7%提高到82.1%。

实验结果显示,在这一情景中,反馈数据提供了与监督数据相似数量的学习信号。尽管他们的研究设置不同于标准的基于文本的情境,但展示了遵循指令的智能体(instruction-following agent)如何持续地从人类反馈中学习的潜力。在未来,我们可能会看到更多更具表达力的反馈方式,比如自然语言。

3

LLM对齐

为确保LLM的最大效用,将其与特定的指南、安全政策、个性特征和与给定下游环境相关的信念对齐至关重要。为达到这一目标,我们首先需要了解LLM已经编码了哪些倾向,然后制定相应的方法来适当地引导它们。

评估和诱导预训练语言模型的个性

论文:https://openreview.net/forum?id=I9xE1Jsjfx

本文提出,根据心理学已知的五大人格特质来评估LLM的个性。在现有问卷的基础上,他们创建了多项选择问答示例,其中LLM必须选择有多准确地描述类似“你喜欢帮助他人”这样的陈述。每个陈述都与一个人格特征相关联。关键在于,模型在特定特质上的得分高低并不重要,更重要的是它是否表现出一致的个性,即是否对与该特质相关的所有问题做出类似的响应。目前,只有较大规模的模型展现出与人类相似的个性特征。因此更好地理解个性特质何时出现,以及如何在较小的模型中编码一致的个性,这将是一个有趣的研究方向。

上下文模拟揭示语言大模型的优势和偏见

论文:https://openreview.net/forum?id=CbsJ53LdKc

本文指出,有很多关于要求LLM模仿领域专家(例如“你是一位专业程序员”等)能够提高模型能力的经验性证据。该论文研究了在不同任务中进行的上下文模仿,并发现模仿领域专家的LLM表现确实比模仿非领域专家的LLM要好。模仿还可用于检测隐性偏见。例如,在描述汽车方面,让LLM模仿男性比被提示为女性做得更好(基于CLIP的能力,使用生成的类别描述将图像与一个类别相匹配)。总体而言,模仿是分析LLM的有效工具,但当用于(系统)提示时可能会强化偏见。

评估嵌入在语言大模型中的道德信仰

论文:https://openreview.net/forum?id=O06z2G18me

本文研究了在高歧义(“我应该撒一个善意的谎言吗?”)和低歧义情境(“我应该在路上停下来礼让行人吗?”)中,LLM如何编码道德信仰。研究评估了28个不同的LLM,并发现:a)在明确的情境中,大多数模型与常识相一致,而在歧义情况下,大多数模型表达出不确定性;b)模型对问题措辞敏感;c)一些模型在歧义情境中表现出明确的偏好,而闭源模型具有类似的偏好。虽然这种评估依赖于一种启发式的将输出序列映射到行动的方法,但这些数据对于进一步研究LLM的道德信仰非常有用。

4

LLM预训练

预训练是LLM pipeline中计算最为计算密集的部分,因此在较大范围内进行研究更加困难。然而,诸如新的规模定律(scaling law)等创新有助于改进我们对预训练的理解,并指导未来的训练过程。

扩展数据受限的语言模型

论文:https://openreview.net/pdf?id=j5BuTrEj35

本文研究了在线文本数量受限情况下的规模规律,与Hoffmann等人(2022年)关于无重复数据的规模规律形成了对比。作者观察到,在重复数据上进行最多4轮的训练表现与在唯一数据上进行训练的表现相似。然而,随着重复次数的增加,额外训练的价值迅速降低。此外,通过将预训练数据与代码相结合,可以显著增加预训练数据的规模。总的来说,每当我们没有无限量的预训练数据时,应该选择规模更小的模型进行更多轮(最多4轮)的训练。

5

LLM微调

用反向传播微调语言模型的成本很高,因此这些论文提出了替代方法使微调更加高效,可以使用高效参数的微调方法或者不计算梯度(零阶优化,zeroth-order optimization)。

QLoRA: 高效微调量化语言模型

论文:https://openreview.net/pdf?id=OUIFPHEgJU

本文提出了QLoRA,这是LoRA的一种更节省内存(但速度较慢)的版本,它使用了多种优化技巧来节省内存。作者训练了一个新模型Guanaco,仅在单个GPU上进行24小时的微调,在Vicuna基准上的表现优于先前模型。总的来说,QLoRA能够减少微调LLM的GPU内存需求。与此同时,他们还开发了可以取得类似结果的其他微调方法,如4位LoRA量化。

仅使用前向传递微调语言模型

论文:https://openreview.net/pdf?id=Vota6rFhBQ

本文提出了一种高效内存的零阶优化器(Memory-Efficient Zeroth-Order Optimizer,简称MeZO),作为经典零阶优化器的更高效内存版本。零阶优化器利用损失值差异来估计梯度。

在实际操作中,该方法在几个任务上实现了与微调相似的性能,但需要多100倍的优化步骤(单次迭代更快)。然而,令人惊讶的是,这种零阶优化首次使用就能在非常大的模型上起作用,显示出这些模型的鲁棒性,同时也为未来研究提供了一个有趣的方向。

6

涌现能力和上下文学习

语言大模型的某些能力,如上下文学习和计算推理似乎只存在于较大规模的模型中。目前尚不清楚这些能力在训练过程中是如何获得的,以及哪些具体的性质导致了它们的出现,这些疑问激励着人们继续深入研究这一领域。

语言大模型的涌现能力是幻觉吗?

论文:https://openreview.net/pdf?id=ITw9edRDlD

涌现能力是只出现在大模型而不出现在更小模型中的一种难以预测的能力。该论文认为,与模型的规模行为无关,涌现能力主要是评估所使用的度量标准选择的结果。具体而言,非线性和不连续的度量标准可能导致模型性能出现急剧而难以预测的变化。


事实上,作者发现,在先前观察到涌现行为的算术任务中,如果将准确度改为连续度量标准,性能反而会平稳提升,不再出现急剧变化。因此,尽管涌现能力可能仍然存在,但它们应该得到适当控制,研究人员应该考虑所选择的度量标准与模型之间的交互情况。

Transformer上下文学习中涌现能力的暂时性

论文:https://arxiv.org/abs/2311.08360

Chan等人(2022年)先前已表明,语言数据的分布特性(具体而言是“burstiness”和高度倾斜的分布)在语言大模型中上下文学习(ICL)的涌现中起着重要作用。以前的研究通常假设一旦ICL能力被获取,模型就会在学习中保留这种能力。


然而,这篇论文使用了Omniglot,这是一个合成图像的少样本数据集,这时候ICL出现涌现行为,但随着损失的持续减少,涌现随后消失。另一方面,L2正则化似乎有助于模型保持其ICL能力。然而,目前尚不清楚ICL是如何涌现的,以及LLM在真实自然语言数据上进行预训练时是否可以观察到这种短暂性。

LLM逐步思考的原因:从经验的局部性看推理的涌现

论文:https://openreview.net/pdf?id=rcXXNFVlEn

本文采用合成设置,研究了在LLM中思维链推理(Wei等人,2022年)为什么以及如何能够生效。与Chan等人(2022年)的研究类似,他们研究了预训练数据的分布特性。结果显示,在训练数据是局部结构化的情况下,思维链推理才是有用的。换言之,当训练数据中的示例涉及到与自然语言密切相关的主题时,这种推理方式才能够发挥作用,而这在自然语言中是非常普遍的情况。

研究者发现,思维链推理之所以具有帮助,是因为它能够逐步建立和连接在训练过程中频繁观察到的局部统计依赖关系。然而,仍然不清楚思维链推理在训练过程中是如何出现的,以及它在最有用的下游任务中具有哪些属性。

语言大模型是潜变量模型:解释和寻找上下文学习的良好示例

论文:https://arxiv.org/abs/2301.11916

本文将语言大模型中的上下文学习框架视为主题建模,其中生成的词元受潜在主题(概念)变量的条件约束,该变量捕捉了格式和任务信息。为了使这一过程在计算上更加高效,该研究使用了一个较小的语言模型,通过在完整演示数据上进行提示调整来学习潜在概念。


然后,他们选择在经过提示调整的模型下具有最高概率的示例作为上下文学习的演示,这相对于其他选择基准有所改进。这是进一步的数据点,证明了基于任务的潜在概念示例是有用的演示数据。然而,这可能并不是完整的图景,因此探讨这种表述与其他数据相似性和多样性度量之间的关系将是一个有趣的研究方向。

Transformer的诞生:从记忆视角出发

论文:https://openreview.net/forum?id=3X2EbBLNsk

这项研究调研了在上下文学习以及在合成设置中使用一般知识的能力。实验设置包括由一个二元语言模型生成的序列,其中一些二元组需要局部上下文来推断,另一些则需要全局统计信息。研究发现,双层Transformer(而不是单层Transformer)发展出了一种归纳头,包括两个注意力头构成的“电路(circuit)”,用于预测上下文中的二元组。然后,他们冻结了一些层来研究模型的训练动态,发现模型首先学习全局二元组,归纳头以自上而下的方式学习适当的记忆。总体而言,这篇论文进一步揭示了语言模型中如何出现上下文学习的过程。

7

推理

当前语言大模型面临的一个主要挑战是,需要对不同信息进行系统链接或组合的推理任务。这些任务的挑战性以及它们在各个领域的广泛应用使其成为了一个富有研究价值的领域。

关于语言大模型规划能力的批判性研究

论文:https://openreview.net/forum?id=X6dEqXIsEW

规划和序列决策对于大模型的广泛应用至关重要。本文研究了语言大模型是否能够为常识性的规划任务制定简单的计划,但仅使用LLM时,即使是最出色的LLM生成的计划也只有12%可以直接执行。然而,当与一个自动规划算法(automated planning algorithm)结合使用时,这个算法可以识别并删除LLM生成的计划中的错误,使LLM的性能明显优于使用随机或空白的初始计划。


LLM的计划也可以通过基于外部验证器反馈的提示进行改进。然而,当行动名称难以理解且不容易通过常识推断时,LLM的优势会消失,表明其缺乏抽象推理能力。总的来说,虽然LLM生成的初始计划可以作为一个起点,但目前其规划能力主要在与外部工具结合使用时表现最佳。

语言大模型能否应对自然语言中的图问题?

论文:https://openreview.net/forum?id=UDqHhbqYJV

作者构建了NLGraph,这是一个以自然语言描述的基于图的推理问题基准,用于评估LLM。他们发现,LLM展现出了引人瞩目的初步图形推理能力,比随机基准高出了37-58%。然而,在处理更复杂的图问题时,LLM对上下文学习和高级提示策略(如链式思维提示等)的应用效果较差,而且容易受到伪相关性(spurious correlation)的影响。然而,采用更专业化的图形提示策略却能够改善结果。未来可以期待看到标准的基于图的方法(如应用于FB15k的方法)与LLM的结合,以及将LLM扩展到更大图的研究。

实用性理解的最佳状态:LLM解析言外之意中微调策略的关键

论文:https://openreview.net/forum?id=5bWW9Eop7l

这篇论文深入研究了语言大模型是否展现出一种特定类型的实用推理,即言外之意(implicature)[3]。作者通过衡量模型是否对包含正确推理的陈述分配更高的概率(与不正确的陈述相比),以此评估模型是否能够理解言外之意。他们发现,指令调优和思维链提示对于这种实用理解(pragmatic understanding)至关重要,而目前最大的模型GPT-4已经达到了人类水平的性能。我们可能会看到更多关于不同类型实用理解的研究,因为这对于实现流畅且类似人类的对话至关重要。

Parsel:通过组合分解实现语言模型的算法推理

论文:https://openreview.net/forum?id=qd9qcbVAwQ

本文介绍了Parsel,这是一个使用代码语言模型实现复杂程序的框架。

首先,采用简单的中间语言(intermediate language),利用LLM生成自然语言的函数描述。之后模型对每个函数描述生成实现的候选项。

接着,对这些函数候选项进行输入-输出约束测试,并组合形成最终程序。在使用GPT-4作为LLM的情况下,这个框架在HumanEval上的性能从67%提高到85%。这是LLM如何与领域特定的知识和工具一同作为构建模块使用,从而大大提升性能的一个出色案例。此外,预计将看到更多关于将复杂的决策问题分解为使用LLM更容易解决的子问题的研究。

信念与命运:Transformer在理解复杂关系上的局限性

论文:https://openreview.net/forum?id=Fkckkr3ya8

这篇论文研究了语言大模型的复合推理能力。他们将复合推理任务构建为计算图以量化其复杂性。研究结果显示,在正确预测的测试示例的训练数据中,完整的计算子图出现的频率明显高于错误的预测示例,这表明,模型更倾向于匹配子图,而非发展系统性的推理能力。使用“scratchpad”和“grokking”(超越过拟合的训练)同样不能改善针对更复杂问题的性能。总体而言,当前的语言大模型在将操作组合成正确的推理路径方面仍面临挑战。

参考文献:

[1] 在这种模型中,短语“a big banana”和“e cop cekeke”具有相同的概率,因为它们具有相同的给定排列{a: e, b: c, i: o, g: p, n: k}。

[2] 这些任务包括一个问题领域、一个初始状态和一个目标状态。问题领域由一组动作组成,例如,拾起方块。

[3] 言外之意(implicature)的一个对话示例如下:“Did you go to the shop today?(你今天去商店了吗?)”,“It was closed(它关门了)”。这里第二句话暗示着对第一个问题的否定回答,即“没有”。

近期,DeepCache为加速扩散模型提供了一种新的免训练、几乎无损的范式。现在,OneDiff引入了一个名为ModuleDeepCacheSpeedup的新ComfyUI Node(已编译的DeepCache模块), 让SDXL在RTX 3090上的迭代速度提升3.5倍,在A100上提升3倍

此外,OneDiff的ModuleDeepCacheSpeedup还支持SVD (Stable Video Diffusion)加速,确保视频质量几乎无损,并在A100上将迭代速度提高了2倍以上。

示例
1. https://github.com/Oneflow-Inc/onediff/pull/426
2. https://github.com/Oneflow-Inc/onediff/pull/438
使用指南:https://github.com/Oneflow-Inc/onediff/tree/main/onediff_comfy_nodes#installation-guide

95ac782bdd2795d8b25e1e385aff907a.png

其他人都在看

试用OneFlow: github.com/Oneflow-Inc/oneflow/icon-default.png?t=N7T8http://github.com/Oneflow-Inc/oneflow/

  • 27
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值