基础模型理解的哲学

文章探讨了基础模型理解其训练数据的程度,特别是自然语言。作者指出,尽管当前模型在语言生成上流畅,但仍存在不连贯性,引发对模型是否真正理解的质疑。文章深入分析了理解的形而上学和认识论含义,并提出多模态训练可能有助于提高模型能力。
摘要由CSDN通过智能技术生成

摘要:对于它所训练的数据,一个基础模型可以理解什么?以自然语言为例,我们确定了理解本质上的不同立场,并探讨了它们与我们中心问题的相关性。我们的初步结论是,对未来的基础模型理解自然语言的能力的怀疑可能是不成熟的,特别是当模型是在多模态数据上训练的时候。

       一个基础模型可以在多大程度上理解它所训练的数据?这个问题的答案将是非常翔实的基础模型的整体能力,以促进智能系统。在本文中,我们将重点讨论自然语言的情况,因为语言使用是人类智能的标志,也是人类体验的核心。目前最好的基础模型可以非常流畅地使用和产生语言,但它们总是陷入某种不连贯的状态,这表明它们只是“随机鹦鹉。这些失误是内在局限性的证据,还是未来的基础模型真正理解了它们处理的符号?

       我们在本文的目的是澄清这些问题,并帮助围绕它们进行辩论。我们开始首先解释基础模型的含义,特别注意基础模型是如何训练的,因为训练机制限定了模型获得的关于世界的信息。然后,我们解决,为什么澄清这些问题对这些模型的进一步发展是重要的。最后,我们试图澄清理解的含义,解决理解是什么(形而上学)以及我们如何可靠地确定一个模型是否实现了理解(认识论)。最终,我们得出结论,怀疑未来模型理解自然语言的能力可能为时过早。单靠基础模型就能实现理解,这一点并不明显,但我们也不知道有什么确切的理由认为它们不能。

1.  什么是基础模型?

       基础模型没有一个精确的技术定义。相反,这是一个大类的模型的非正式标签,随着时间的推移,对应于新的研究,这个大类的模型很可能会增长和变化。这就对它们的基本性质的推理提出了挑战。然而,可以说所有基础模型都有一个共同的定义特征:它们是自我监督的。我们的关注点是自我监督是模型的唯一正式目标的情况下。

       在自我监督中,模型的唯一目标是在它所训练的符号序列中学习抽象的共现模式。这项任务使许多模型也能生成合理的符号串。例如,许多基础模型的结构是这样的,人们可以用一个序列来提示它们,比如三明治里有花生,并要求它们生成一个延续-比如黄油和果冻。其他模型的结构是为了更好地填充空白;你可能会提示一个模型“The sandwich contains __ and jelly”,并期望它填充“peanut butter”。这两种能力都源于这些模型从其训练数据中提取共现模式的能力。

       这种自我监督并没有告诉模型符号的含义。它直接给出的唯一信息是关于哪些词倾向于与其他词共现的信息。从表面上看,知道三明治里有花生很可能会继续说黄油和果冻,这并没有说明三明治是什么,果冻是什么,这些对象将如何组合,等等。然而,我们不需要将模型限制为只能看到文本输入。一个基础模型可以在各种不同的符号上训练:不仅仅是语言,还有计算机代码、数据库文件、图像、音频和传感器读数。只要它只是学习它所接触到的序列的共现模式,那么根据我们的定义,它就可以算作基础模型。作为这种学习的一部分,模型可能会表示给定文本与特定传感器阅读之间的强关联,或者像素值序列与数据库条目之间的强关联。这些联想可能反映了我们所居住的世界的重要方面以及我们用来谈论它的语言。

2.  理解意味着什么

       在分析理解是什么之前,我们有必要思考一下,为什么我们会关心基础模型是否能够实现理解的问题,这些模型已经准备好被部署用于具有各种功能的多种目的。我们在部署中的一些目标可能只有在模型能够理解的范围内才能实现。在这里我们列出了一些这样的目标:

·信任:

       有人可能会说,我们不能相信一个系统的语言行为,除非它理解它所使用的语言。当然,我们目前信任工程系统来做事情(例如,制造汽车零件),甚至没有出现理解的问题,但语言在这方面可能是特殊的,因为它是人类所独有的。此外,语言可以被用来欺骗和歪曲,所以理解本身显然并不意味着信任。总的来说,在语言使用的语境中,理解可以被看作是信任的必要条件。

·可解释性:

        如果真正的自然语言理解以某种方式涉及维护和更新世界的内部模型(包括,例如,如果我们(作为工程师)能够分析语言输入和输出如何与这种内部模型交互,那么可以在这些系统的可解释性,可预测性和控制方面获得实质性的收益。

·问责制:

       与前面的几点无关,未来我们可能会发现,人工智能体在某种程度上对它们产生的语言负责是可取的。取决于我们如何看待责任、责任、代理等概念,语言理解可能会成为先决条件。理解在这些问题中扮演不可或缺的角色的可能性,为我们提供了强大的动力去发展一个框架,以便将其理论化。

3. 什么是理解?

       我们的核心问题是基础模型是否能够理解自然语言。有了上述内容,我们现在可以更尖锐地提出:自我监督是否足以理解,记住对用于这种监督的数据没有限制?为了解决这个问题,我们首先需要定义理解的含义。作为一个开始,我们发现明确一个在讨论这个话题时有时会混淆的区别是有帮助的。理解是形而上学与认识论的区别。形而上学关注的是一个行动者实现理解的意义(原则上)。相比之下,认识论关注的是我们如何(在实践中)知道一个主体已经实现了相关类型的理解。简而言之,形而上学更多的是关于我们的最终目标,而认识论更多的是关于我们如何(如果有的话)知道我们何时达到了目标,因此我们的认识论在某种程度上取决于我们的形而上学。

      理解的形而上学。语言哲学为理解自然语言提供了许多替代方案。为了简洁起见,简化了景观,以下三大类观点都与人工智能和自然语言处理的研究路线有关:

 ·内在主义:

       语言理解相当于检索正确的内部表征结构以响应语言输入。因此,如果没有一个丰富的正确的内部概念库,语言理解甚至是不可能的。

·参考主义:

       粗略地说,当智能体能够知道该语言中的不同句子为真(相对于上下文)需要什么时,它们才能理解语言。也就是说,词语有所指,(陈述性)话语是真实可评估的,理解涉及相对于情境或场景的呈现来评估它们的能力。

·实用主义:

       理解不需要任何内部表征或计算,真理和参考不是基本的。相反,重要的是行动者倾向于以正确的方式使用语言。这可能包括倾向于推理或推理模式,适当的会话动作,等等。至关重要的是,相关的语言能力构成了理解。

       虽然这是对可能性空间的简化描述,但我们已经看到它们如何以完全不同的方式与上述目标相关联。例如,根据实用主义的观点,实现语言理解并不意味着我们信任或解释系统的能力,因为它不能保证代理人的内部结构或其与(非语言)世界的关系。相比之下,内在主义者的观点至少强烈暗示了一种相当强大的内部/因果可解释性。一个基础模型原则上是否能够理解语言的问题,取决于我们采用哪一种形而上学表征,具有非常不同的性质。

       内在主义和指代主义都可以被视为定义一个映射问题:将一个 具有意义语义值的语言符号。对于内在论来说,这将是一种表征或 概念、用于计算值的程序或一些其他类型的内部对象。对于指导性原则, 它可以是从一个词到外部指称的映射,也可以是从一个情景到一个事实的映射 (全部相对于上下文)。自我监督是否足以实现所需的映射 在一个基础模型中?在这里,训练示例的性质可能是相关的。如果模型 只接受语言输入,那么它学习这种映射的能力可能从根本上 限制在阻止它学习相关意义上的指称的方式。(事实上,Merrill等人确定一些理论上的限制,尽管这些限制是基于对它的意义的非常强烈的假设 了解符号的含义。)然而,如果输入符号流包括不同的数字轨迹 世界上的事物--图像、音频、传感器等--那么共现模式可能包含 对于指代性而言,还有一个进一步的问题,即这些代理如何与现实世界相关联,但人类语言用户也面临同样的问题。

       BenderKoller提出了一个有趣的论点,将指代主义和实用主义结合在一起。他们想象一个代理人O截获两个说自然语言的人之间的交流。O生活在一个与人类截然不同的世界,因此没有以指代主义要求的方式固定人类话语所需的那种经验。尽管如此,O还是从人类说话的模式中学习,以至于O甚至可以成功地假装成人类之一。然后,本德尔和科勒试图激发一种直觉,即我们可以很容易地想象这样一种情况,在这种情况下,O无法让L在人类世界中站稳脚跟,这将反过来揭示OL的不理解。指导性的假设似乎是,世界的复杂性是如此之大,以至于再多的文本交流也无法完全掩盖它,这些差距最终会暴露出来。在我们定义的术语中,无法参照被认为意味着代理人没有处于正确的倾向状态,无法理解。

       从根本上说,BenderKoller描述的情景中,一些关键的理解信息被认为是缺失的,一项简单的行为测试就能揭示这一点。我们可以同意这一评估,但不会得出结论,即基础模型通常无法理解。这再次将我们带回所涉及的培训数据的细节。如果我们修改BenderKoller的方案,使传输包括来自人类世界的数字编码图像、音频和传感器读数,并且O能够学习这些数字痕迹和语言单位之间的联系,那么我们可能会更乐观--O获得足够数据进行概括的能力可能存在一个实际问题,但可能不是对O能够实现的原则上的限制。

       我们初步得出结论,没有一个简单的先验理由认为,在我们的三种立场中的任何一种下的各种理解都不能以相关的方式学习。在这种可能性仍然存在的情况下,我们面临着艰难的认识论挑战,即澄清我们如何希望评估潜在的成功。

理解的认识论

       实用主义的一个积极特征是,通过将成功等同于具体行为的表现,没有关于如何测试它的巨大概念谜题。我们只需说服自己,到目前为止,我们对系统行为的有限观察表明,我们对我们作为目标的更一般类别的行为有可靠的倾向。当然,就适当的目标达成一致是非常困难的。当提出具体的建议时,它们总是会遭到反对,通常是在假定取得成功之后。

        图灵测试的历史在这里很有启发性:尽管有许多人工试剂通过了实际的图灵测试,但结果是没有一个被广泛接受为智能。同样,近年来,NLP内提出了一些基准任务来评估理解的具体方面(例如,回答简单的问题,执行常识性推理)。当系统超过我们对人类表现的估计时,社区的反应通常是测试有缺陷,而不是达到了目标。可能有一些行为是我们真正的目标,但很难限定或转化为实际测试。话说回来,这可能会揭示出,内在主义或指代主义是我们一直在考虑的。

       如果我们把内在主义或指称主义作为最终目标--理解是什么的黄金标准--那么行为测试作为评估理解是否已经实现的手段,充其量也永远是不完美的。缺陷是双重的。首先,行为测试总是存在漏洞,可能会让不成熟的模型溜走。其次,系统可能已经实现了这些视图所需的映射,但我们可能无法通过行为测试来证明这一点。最近使用GPT-3模型的经验表明,这可能会变得多么具有挑战性:根据使用的提示,人们可以看到令人惊讶的连贯输出或完全的废话,因此提示工程需要深厚的专业知识

       因此,内在主义和指称主义都需要结构评估方法,使我们能够研究它们的内部表征,探测它们的信息,研究它们的内部动态,并可能根据支持因果推理的特定实验方案积极操纵它们。从复杂基础模型的内部运作的实际实验中,我们可以学到的东西可能存在根本性的限制,但很明显,只要我们的目标与内在主义或指称主义相一致,这些方法就很有用。

4.  推进讨论

      很明显,对于基础模型是否能够理解语言这个问题,并没有简单的答案。要开始讨论这个问题,就必须解决一个深奥的形而上学问题,关于这个问题有许多本质上截然不同的观点。这个形而上学的问题接着又变成了一个认识论的问题,而认识论的问题又提出了许多实际的挑战。尽管如此,上述讨论确实引出了一个实用的结论:如果将基础模型作为人工智能中语言理解的途径,那么多模式训练机制可能是最可行的策略,因为它们似乎最有可能为模型提供必要的信息。自我监督是否足够是一个完全没有定论的问题。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值