人机交互建模问题

关于自动化等级和类型框架的假定

 

当前的认知工程文献包括复杂系统中的多种人机交互模型(HAI)。其中一些模型表现自动化类型和自动化等级(LOA),并将不同的LOA与人的绩效、工作量和态势感知含义联系起来,作为系统设计的基础。然而,有人认为LOA方法忽略了设计过程中需要考虑的关键问题,还有一些人不满意HAI建模的研究进展。本文中,我认为放弃一个具有某种实用性的现有框架没有什么意义,除非认知工程界能够提供更广泛的有着其他供选方案的设计社区。基于此观点,我总结了现存LOA定义的相关问题,包括(a)自动化与人类行为的假设,以及(b)定义自动评估行为结构这种行为自身引起的不精确性。我提出了改进LOA框架的步骤。我提供的证据表明,在使用自动化时需要精确地定义行为,以及需要使用LOA描述人的绩效模型。我还对其他类别的HAI模型进行了调研,介绍了实现LOA分类法的描述性公式的方法,以支持概念性和详细的系统设计。作为设计的基础,本研究的最终目标是建立可靠的模型来预测人和系统的绩效。

关键词:自动化等级,功能分配,人机交互,人信息处理模型,满足行为

研究动机

  随着复杂的无人系统(UAS;例如Lewis,2013)和高度自动化的汽车(国家公路交通安全管理局[NHTSA],2013)的出现,自动化,控制模式和界面的设计在工作和日常生活中都产生了更广泛的影响。商用无人机制造商以及汽车行业都对自动化抱有很高的期望。美国联邦航空局预测,无人机产业在十年内将价值900亿美元(Gent,2015)。福特最近宣布到2021年实现大量生产自动驾驶汽车(福特,2016年)。人机交互(HAI)研究的主要挑战之一是开发用于支持设计的人和系统绩效预测模型。为了应对这一挑战,文献中已经开发了许多类型的模型,包括HAI决策的计算模型(Kirlik、Miller和Jagacinski,1993年),引用潜在的自动化结果的“查找表”(Endsley和Kiris,1995年;Kaber和Endsley,1997年;Parasuraman、Sheridan和Wickens,2000年),用户和机器行为的有限状态模型(Degani和Heyman,2002),与机器交互时的人判别网络模型(Bisantz和Pritchett,2003),针对HAI中的依赖性建立的数学模型(Gao和Lee,2006),以及用于描述机器使用过程中错误的计算算子模型,该模型具备状态转换能力。

尽管模型范围很广,但自动化等级(LOA)的分类法在文献中占具主导地位,这可能是因为其作为系统设计过程的起点的方便性和/或实用性。现在,各种政策团体和联邦机构也正在使用这种模型,尤其是在先进的车辆自动化领域。例如,美国高速公路安全管理局(NHTSA)最近采用了由美国机动车工程师学会(SAE,2014;参见表1)开发的新的自动驾驶汽车分类法。这种分类侧重于谁(驾驶员或自动化)负责车辆的哪些功能的系统设计问题,并列出了从手动驾驶到驾驶员协助一项车辆控制任务、多个控制任务的部分自动化、允许人工干预的自动化和在所有可控条件下实现所有车辆控制任务的自动化的列表。SAE强调,这个分类法中的自动化对象是驾驶任务,而不是车辆子系统。从这个角度来看,SAE制定了严格的LOA分类标准,就驾驶员和辅助系统之间的功能分配变化而言,一个等级与下一个等级紧密相关。同样需要注意的是,SAE根据当前的车辆技术确定了一组自动化驾驶任务;也就是说,分类法仅涵盖了操作和战术任务性能(实时发生)与战略任务性能,如驾驶员目标制定,它超越了自动化功能。驾驶模式代表在驾驶任务(例如,高速公路合并,高速巡航等)中的不同需求等级,这些需求可能由已确定的辅助系统管理,或者可能无法管理。这个列表旨在为制造商分类技术和未来系统设计工作以及支持公路法规提供依据。它也被认为是提高车辆LOA的一个关键概念。这种对自动化查找表的使用以及潜在影响的观察并不是表示其有效性,而是表明其作为设计基础正在被更多的采用。问题是,考虑到我们技术的未来,这些模型是否是支持设计的正确模型。

  一般来说,HAI模型需要精确地描述自动化过程中人的实际行为和真实的系统结果。这对于支持概念设计阶段以外的系统需求规范和工程实践非常关键。与这些需求相关的是,当前的分类法可能对人信息处理做出了假设,相对于人对自动化的使用,这些假设可能并不完全准确,因此,对特定LOA结果的预期可能不准确。然而,这并不是说在实践中(或在特定系统中),工程师无法将某些HAI与特定LOA联系起来。

  关于本文的组织框架,我将首先回顾LOA分类法的起源和进展以及对LOA分类法的概念/理论批评。这篇综述并不全面,筛选过的的文献提供了具体的观点,而本文代表了我对这些文献的解释。接下来我将对LOA分类法的实证评估进行简短的回顾,以此作为潜在概念问题的客观鉴定和未来研究需要的基础。然后我将解决两个具体的问题,并提供一些实证证据。接下来是确定进一步完善LOA概念的潜在方法,并确定现有HAI建模研究,以提供一些支持该

表1:道路车辆的驾驶自动化等级

需求

系统绩效(驱动模式)

不适用

部分驾驶模式

部分驾驶模式

部分驾驶模式

部分驾驶模式

所有驾驶模式

注意:表示动态驾驶任务的自动化,但不是由人类驾驶员处理的战略性任务(如目标制定)。

来源:美国机动车工程师学会(2014)。

临时事件

动态驾驶的回退绩效

系统

系统

功能分配

检查驾驶环境

系统

系统

系统

转向和加速/减速的执行

人和系统

系统

系统

系统

系统


描述

全天由人工驾驶人员执行各个方面的动态驾驶任务,即使有预警或干预系统的增强

由驾驶员辅助系统执行的特定驾驶模式使用有关驾驶环境的信息进行转向或加速/减速,并期望人类驾驶员执行动态驾驶任务的所有其余部分

由一个或多个驾驶员辅助系统执行的的特定驾驶模式使用有关驾驶环境的信息进行转向和加速/减速,并期望人类驾驶员执行动态驾驶任务的所有其余部分

由自动驾驶系统执行的特定驾驶模式执行动态驾驶任务的所有部分,期望人类驾驶员将适当地响应干预的请求

自动驾驶系统能具体地执行驾驶任务的各个部分,即使人类驾驶员没有对干预请求作出适当的响应

在所有道路及环境条件下,自动驾驶系统可全时执行动态驾驶任务的所有方面,也可以由人类驾驶员管理

名称

无自动化

驾驶员辅助

部分自动化

有条件的自动化

高度自动化

完全自动化

等级

0

1

2

3

4

5












方法的见解。总的来说,与放弃方便的支持概念性系统设计的现有方法相比,我更主张进一步开发LOA方法以增强现有框架的预测性能,而无需对解决类似的广泛自动化设计问题的其他替代方法进行类似的审查。

LOA的起源和概念问题综述

  定义人在回路系统的自动化等级和类型的研究已经被非常认真地考虑了相当长的一段时间。一个早期的例子可以在Fitts(1951)的MABA-MABA(“人更擅长;机器更擅长”)列表中找到。Fitts的目的是将系统功能适当分配给人或机器,为有效的协调系统绩效提供基础。Fitts的工作之后进行了几项关于监督控制和自适应功能分配方案对人的绩效影响的开创性研究(例如,Jordan,1963;Rouse,1988),目的是为各种情况下人机协调的绩效建立一个实证基础。这项研究与其他研究如何为无法实现完全自主能力的复杂系统指定HAI的研究工作穿插在一起。Sheridan和Verplank(1978)的目标之一是在远程操作环境中“发展分类学……人机交互模型”(即可实现的LOA)以提供更好的工程基础。它们描述了通过操作员和计算机的协调行动来做出和执行决策的不同方式,这构成了不同的LOA。这项工作为后来的LOA分类法奠定了基础(Endsley,1987;Endsley & Kaber,1999;Endsley &Kiris,1995;出租车,1996;Kaber & Endsley,1997,2004;Parasuraman等人,2000年),包括重新制定基于更广泛类型的信息处理自动化的等级。例如,Mica Endsley和我考虑了“监控”(系统状态)、“生成”策略选项、“选择”一个“最佳”策略,以及“执行”所选择的策略,以代表人自动化系统(HAS)中普遍的信息处理阶段。我们系统地将这些功能分配给人和机器(基于能力估计),以识别各种具有更好的置换频率和自动化功能复杂性的LOA,表明“更高”的LOA。随后,Parasuraman等人(2000)确定了基于人信息处理模型“管道”阶段的自动化类型和等级(如Wickens,1992年,p.17),包括信息采集、信息分析、决策、行动的实现,以及对这些模型的隐含认知行为假设。他们的LOA来源于Wickens,Mavor,Parasuraman和McGee(1998)以及Sheridan和V erplank(1978)对LOA的分类。此外,他们提出了一个选择和实施LOA的系统过程,同时考虑了人力绩效结果、自动化可靠性和自动化的风险。这项工作的两个重点包括(a) 考虑操作人员的功能或行为如何被自动化转换(而不是被取代)的重要性,因为这样会反而使操作人员需要适应新技术, (b) 在概念和详细设计阶段识别或选择LOA的想法可能会为了适应未预料到的事件而在系统操作期间改变。例如,在过程控制操作过程中,如果传感器检测到管道的超压,计算机控制的进料泵(到管道)可能会自动切换到操作员控制,以允许降低压力和维护生产流程。Parasuraman等人的迭代LOA规范过程提供了一种方法来考虑操作员在这种新情况下的适应或调节需求。

某些LOA不应当被使用

  然而,一些当代HAI的研究人员(例如,Dekker & Woods,2002;Kirlik,1993)表达了对定义人们使用的自动化等级或模式的分类学或离散方法的关注。早期,Kirlik(1993)提出,在某些多任务情况下,复杂航空系统的操作员可以合理地避免使用特定类型或等级的自动化。他确定了飞行员在特定LOA上与先进自动辅助设备交互和监测方面的负担,也就是说,LOA分类法还需要考虑操作问题。然而,这一概念类似于Parasuraman等人(2000年)所提出的担忧,即自动化应具有足够的灵活性,让人能够实时地适应它。

LOA没有解决“正确”的设计问题

Dekker和Woods(2002)认为,与Kirlik(1993)的关注相比,在复杂系统控制中确定“谁”(人与机器)做“什么”(功能)并不能促进HAI设计,而最关键的设计需求是促进人与自动化的协作(即,“我们如何让它们(人和机器)相处?”)。与Parasuraman等人(2000年)一样,Dekker和Woods重申自动化必然会改变操作员的职能。Dekker和Woods提供的解决方案侧重于界面信息显示,并参考了Christoffersen和Woods(2002)的工作(事件、模式、预测)。Christoffersen和Woods强调自动化活动需要能够被人所观察,利用人的感知能力,并使人能够轻松引导自动化功能。讽刺的是,此类HAI方法最终必须由工程师进行客观评估,以确保其操作有效性,例如,自动化的技术限制可能导致对界面设计和/或功能分配的额外建议。Woods及其同事认为,最重要的是促进人与自动化之间的协调,实际上,工程师们无法逃避在系统设计过程中定义和评估人与机器之间的功能分配。因此,在我看来,Dekker和Woods的建议实际上把我们带回到了Fitts(1951)的关于“谁做什么”的问题上,任何功能分配决策可能会根据HAI的性质进行“微调”。

LOA太粗略而无法使用

  Dekker和Woods(2002)对我们应该在HAI研究中提出什么样的问题提出了异议,Pritchett,Kim,Feigh(2014)对功能分配方案的性质以及LOA的分类法是否真的有助于对真实系统进行分类并提供具有足够分辨率的框架(以及其他问题)提出了关注。Feigh和Pritchett(2014)说,特定的复杂系统功能分配并不总是在人和机器之间建立明确的分工。他们争辩说,当前的机器和技术不能总是整齐地归入现有的自动化分类中。因此,文献中确定的LOA对于分析或作为设计基础使用的效果可能有限,尽管我认为LOA定义的广度可以用来解决这个问题。与此相关的是,Pritchett等人观察到,一些现有的LOA定义是粗略的,没有捕捉到在同一LOA中实现/呈现自动化的不同方式,这会导致绩效的潜在变化。如果自动化实现的变化仅限于界面设计,则可以扩展查找表(在子级中),以呈现特定LOA系统的更精细的分类,这些系统在自动化表达方面有独特的不同。然而,如果实现的变化不局限于界面设计,而且是功能性的,那么这种变化就构成了对LOA规范的偏离,也就是说,功能分配的差异实际上表示了不同的LOA,而不仅仅是LOA中自动化表示的变化。这种情况会从设计的角度破坏任何查找表的作用。

LOA不确定系统结果由谁负责

  除了这些问题,Pritchett等人(2014年)还指出了在设计中实施LOA分类法的实际问题,尽管他们选用了文献中的模型(不包括MicaEndsley和我开发的模型)。他们认为,先前的LOA定义并未涉及到人和自动化对系统结果的责任,这些因素需要在定义功能分配和“团队合作”方面考虑,特别是当人类操作员仍然对自动化结果负责时。然而,Parasuraman等人(2000年)先前认为,在概念和详细系统设计阶段之外,测量系统绩效结果和使用自动化对风险和可靠性的影响是进行动态LOA选择的关键基础。Parasuraman等人的模型提出了一个反馈过程,以说明在回答功能分配问题时的绩效。因此,一些流程已经被开发来反映LOA选择中的人的绩效和自动化可靠性。

对LOA方法的其他概念的批评

  除了上述担忧,在最近的几篇论文中,Bradshaw、Johnson及其同事(Bradshaw、Hoffman、Woods和Johnson,2013;Johnson等人,2011)对LOA概念提出了批评,其中最引人注目的是确定了“自主系统的七个致命误解”。Bradshaw等人(2013)提出的一些批评/误解也出现在了美国国防科学委员会提出的关于自主性在美国国防部系统中的作用的报告中(DSB;美国国防科学委员会,2012年)。在其他影响广泛的批评中,Bradshaw等人认为LOA概念没有科学依据,对“自主”系统的开发没有用处。他们的“误解”的几个具体方面是,在系统操作方面,现有的LOA分类法假设人和自动化的功能替代是等效的,自动化的替代(对于人)不会影响人的行为。(这一“替代误解”也出现在DSB报告中;美国国防科学委员会,2012年)与此相关,Johnson等人(2011年)将Parasuraman等人(2000年)的研究与其他LOA研究进行了汇总,他们认为这些研究在定义LOA时忽略了代理之间的功能差异。实际上,类似的关注激发了先前Parasuraman等人关于在整个系统生命周期中选择LOA进行迭代的必要性的讨论。此外,如果像代理的同质性或自动化替代对人类行为影响的缺乏这样的假设是先前LOA研究的一部分,那么就没有动机对LOA对人的绩效的影响进行实证评估(例如,Endsley&Kaber,1999)。

  尽管Bradshaw等人(2013年)的误解有几个方面,但所有“误解”背后都有一个基本问题:LOA概念指的是特定功能的自动化,而Bradshaw等人则提出的是“自主等级”。在我看来,自主和自动化是完全不同的。正如Bradshaw等人所说,自主意味着代理的生存能力、独立性和自我管理能力。在这些特性中,只有特定环境中的生存能力与特定功能的自动化相关。对于许多类型的系统来说,机械和计算机系统的自主性是一个崇高而有吸引力的目标,但在技术上或经济上往往是不可行的。正因如此,Sheridan和Verplank(1978)将LOA定义为最适合利用计算机来辅助人的工具:它们不是指“自主”系统!总的来说,Bradshaw及其同事(2013;Johnson等人(2011年))回顾了一个集中于一种结构(即自动化作为一种技术)的研究语料库,但从另一种角度(即自治作为一种存在状态)提出了批评。我认为这个问题是Bradshaw等人提出的大多数批评的根本,并且这让许多公认的误解从根本上就站不住脚。 

关于LOA起源和概念问题的推论概要   

  说了这么多,我们开发的任何设计参考都应该有效地支持设计师和工程师。回顾Kirlik(1993)的研究,在给定特定操作环境或任务需求的情况下,我同意一些LOA在人和代理之间的功能分配方面可能并不有效(因此,LOA分类法处理各种类型的系统的动机)。与此相关,如Johnson等人(2011),我认为系统设计师需要详细考虑任务环境,以及在复杂的系统操作中,人与机器如何并行交互来进行描述和建模,以促进团队合作和有效的界面设计。尽管解决认知和自动化工作系统分析和设计中的这种复杂性可能是必要的,但我不认为优先考虑可行的功能分配(在团队分析之前)是一种“简化思维”。此外,目前尚不清楚一个工程师如何识别“人依赖计算机做的事”或“计算机依赖人做的事”,除非他或她知道人和计算机(各自)做什么(参见图3,Johnson等人,2011)。因此,我相信LOA方法实际上解决了自动化系统设计中的主要问题(“谁”在做“什么”),我们可以在此方法的基础上解决“我们如何让人和机器相处”的其他问题(例如,Dekker & Woods,2002)。同样,由DSB(美国国防科学委员会,2012)提出的新的“自主系统参考框架” 也以“关于在人和计算机之间明确分配[系统]功能和责任以实现特定能力的设计决策”为重点(第4页)。然后,该方法提倡将涉及高等级自动化权衡的决策与反馈方法的开发相结合,以使自动化和系统状态高度可见。讽刺的是,尽管这项工作对LOA办法有负面影响,但新框架的新颖性似乎主要在于背景方面的考虑,例如任务阶段和等级。最后,这里需要承认的是,Pritchett等人(2014)关于LOA概念“太粗略”的观点可能与许多类型的现有系统有关,可能会让应用中的设计师感到沮丧。在此基础上,我总结了LOA概念需要额外关注的点,以便为设计师和工程师提供详细的指导。

LOA实证研究结果综述

  涵盖LOA方法的实证分析也很重要,以确定具体的、客观的研究问题。许多单个实验已经量化了LOA对人的绩效、工作量和态势感知的影响(例如,Endsley& Kaber,1999;Endsley & Kiris,1995;卡贝尔,Onal, &Endsley,2000;Manzey,Reichenbach & Onnasch,2012;Rovira,McGarry &Parasuraman,2007;Wright & Kaber,2005)。这些研究大多是在实验室环境中进行的,这些研究使用多任务仿真来描述人和系统对LOA的响应,以详细说明工程师在为特定LOA设计时可以预期的框架结果。除了个别实验之外,一些实验还对LOA方法的实证结果进行了若干元分析(Kaber等人,2009;Onnasch,Wickens,Li, & Manzey,2014;Wickens,Li,Santamaria,Sebok, & Sarter,2010),这些实验的目标是,在切换LOA时识别不同等级或特定性能现象的绩效、工作量和情况感知的共同趋势,以更好的支持系统设计。

  从实验开始,态势感知、绩效和操作员工作量的结果就不总是如预期的那样。例如,在早期的研究中(Endsley & Kaber,1999),我们预期会出现广泛的中级LOA以不同的方式混合人和机器的职能,通过自动化的使用来提升的操作员系统意识(由于任务的介入)和绩效。结果表明,只有那些最接近手动控制并施加较高操作量的中级自动化才能产生预期的绩效提升,但操作员的态势感知却没有相应提高。相比之下,中上等级的自动化模式,包括监督控制,可以致使态势感知提高,但没有出现预期的绩效提高(在这里,我使用“低”、“中”和“高”等级自动化的来表达自动化功能分布的等级和复杂性。正如Johnson等人[2011]在关于LOA分类法的其他类似著作中所建议的那样,我不假设从一个等级到另一个等级的分布或自动化复杂性的增加是一致的间隔) 。在某些情况下(Kaber等人,2000年),我们还发现,在某些中级(决策支持)自动化下,态势感知能力低于人工控制或全自动化。随着人机系统自动化等级的提高,工作量也在不断减少。在此,有必要说明的是,这一实证工作旨在进一步表征特定功能分配方案对设计师的潜在影响。也就是说,与Dekker和Woods ( 2002)提出的人可能选择人机协调方案和“abracadabra”的论点不同,我们追求准确确定工程师从可能的人机组合中可能预期的结果,一系列预期的结果将接踵而至。

  在实证LOA研究的元分析方面,Wickens等人(2010)和Onnasch等人(2014)彻底整合了文献中关于自动化类型和等级的实验结果。尽管我之前发现了一些出乎意料的结果,但他们在18个不同的研究中发现,随着自动化等级的提高,绩效有提高的趋势而工作量有减少的趋势。他们还发现,在各种研究中,随着自动化等级的提高,会发生态势感知的退化。他们对实验数据和分析的整合也引出了“伐木工”的概念,也就是说,在自动化故障的情况下,人对自动化的依赖越大,返回到手动控制时就会产生更大的绩效问题。这个概念(和支持它的证据)代表了当前文献中出现的少数几个关于LOA对人表现影响的描述性(基于证据的)模型之一。有些人可能将这个概念描述为一种支持预测特定LOA可能发生什么的经验规律。然而,我并不认为这与系统设计模型有什么不同,因为所有的模型都是计划或观察到的系统行为的抽象,它们旨在扩展到新的操作环境。与此相关,作为生命科学领域HAI 建议的基础(Kaber等人,2009),在另一个早期的关于LOA对人的绩效的影响的综合分析中,我们做过类似的观察,LOA可用于在正常系统操作期间减少操作人员的工作量,但在需求高的时期,操作人员的参与对促进错误处理至关重要。

在不同的研究中影响LOA结果变化的一些因素

  总的来说,关于操作人员的绩效和态势感知,单个LOA实验结果缺乏明确的响应趋势,这可能会让设计师感到沮丧。研究结果还表明,我们对自动化和人的绩效的一些直觉要么是不准确的,要么是不完整的。有人可能会说,这些结果缺乏一致性可能是由于实验设计的问题,如样本大小和灵敏度、刺激频率、暴露时间和反馈机制。然而,考虑到自Fitts(1951)列出了结构非常好的实验设计(Endsley & Kiris,1995)以来发表的大量实证人工智能研究,这种解释似乎不太可能。其次,正如Feigh和Pritchett(2014)所指出的,与LOA或功能分配方案相关的许多问题可能只能通过仿真或实际操作来观察。他们认为,这种情况最有可能发生在人机交互紧密耦合时,就像我们之前的实证工作中出现的情况一样。Feigh和Pritchett(2014)评论说,任何特定的功能分配在一种背景下似乎都能很好地工作,但在另一种背景下却不合适。与此相关,Wickens等人(2010)的元分析的底线是,自动化对人信息处理的影响的预期通常会受到许多环境因素的影响。

人可能不像研究人员和系统设计者所期望的那样行动

  自动化导致的人的绩效结果偏离预期的另一种更可能的解释是,在他们的概念中,现有的自动化类型和等级模型(例如,Kaber &Endsley,1997;Parasuraman等人,2000)里的复杂系统操作员的实际行为是被假定好的。(在这里,我使用了假定这个规范的术语,因为设计师/工程师对自动化用户行动的期望并不一定等同于用户相对于某些已定义的标准“应该”如何行动。)更具体地说,人信息处理模型已经被引用为识别人或计算机可以执行的系统功能(即LOA)的基础,这些模型对人的认知处理进行了假设,包括注意、知觉、记忆使用、规划和决策。然而,这些模型以及因此而产生的研究人员的预期可能并不能充分说明人与先进的自动化或“无人”系统之间的相互作用,这些系统代表了最近传感和处理能力方面的技术进步。在人在回路系统中建立早期的人信息处理模型时,这样的系统可能不被认为是交互技术。与此相关,Pritchett等人(2014)观察到,HAI研究人员为各种LOA建立系统预期结果的努力可能会受到下面这个事实的影响,即人并不总是按照工程师的期望行事(也不是所有行为都是规范的)。因此,试图将功能分配的刚性工程定义与系统绩效联系起来,可能会受到操作人员行为问题的影响。这个特殊的问题似乎是关于现有的和任何未来用于设计的人在回路系统自动化模型的有效性的主要问题。

  比如说,在Endsley和Kaber(1999)的多任务仿真分类中的各种LOA的定义和建模中,自动化功能的性能基于人类操作员将如何执行这些相同的功能(即监控、生成、选择和实施)。分类法的10个层次代表了一个“可行的”子集,由三种人机分配形式的81种可能组合组成,用于四种通用系统功能。对更强的人信息处理能力(或等同于人和自动化代理能力)的假设可能会导致更广泛可行的LOA子集。(甚至在谢里丹和V erplank[1978]对LOA的早期分类中,也提出了“决策子元素”的假设,这可以由人和/或计算机来解决;见第8-15页,表8-1。)另一个例子,尽管Parasuraman等人(2000)提出了一种方法来解决人具体的绩效问题(例如,自满,警惕性下降,态势感知的丢失等等),在选择自动化的类型和等级时,从设计的角度来看,他们的识别“什么应该是自动化的,为何种等级”(例如,信息采集、信息分析、等等)对人的绩效以及在提供自动化辅助时人们的行为做出了隐含的且未经测试的假设。

  在复杂的系统操作中,可以指定给人工或自动化的规则取决于对能力和绩效的潜在期望。此外,Parasuraman等人(2000)对自动化为信息处理的每个阶段提供的支持等等的规定,也是基于相同规则的人类行为的概念。这些隐含的假设或LOA的潜在基础在处理不同LOA下的人信息处理和相关行为时可能不准确(或充分合理),特别是当模型预测与实证数据不一致时(Wright & Kaber,2005)。

人类行为/绩效影响的定义是不精确的 

  除了假定的建模问题之外,用于评估LOA模型的人的绩效构造的现有定义的精确度也很关键。在他们的研究中,Dekker和Woods(2002) 认为许多人类行为问题以前在制定HAI时被参考过,或者被用作定量评估自动化技术和界面设计的基础(例如,自满、态势感知等),都是基于人的绩效的“民间”模型的无意义的构造或概念。Parasuraman、Sheridan和Wickens(2008)强烈反对这些观点,他们提供了证据,认为态势感知、心理负担和信任是经过实证验证的认知结构,并为系统设计和工程提供了有用的基础。尽管我同意在人的绩效(例如,Parasuraman & Manzey,2010;Parasuraman,Molloy, & Singh,1993),态势感知(Endsley,2015;Endsley &Kaber,1999;Parasuraman等人,2008年)和信任(Lee & See,2004年) 中存在着自满的科学基础,从Dekker和Woods(2002年)的观点来看,在为自动化系统分析定义此类行为和绩效构造时需要额外的精确性。从工程的角度来看,更强的结构有效性意味着更准确地评估自动化对人的绩效的影响,以及更灵敏地识别LOA实现之间的共同响应趋势,反之,更精确的系统模型和设计方法亦然。也就是说,人对LOA的反应与预期的偏差,也可能是由于目前对这些反应的操作定义的局限性。

总结和对其他研究的启示

  正如刚刚兴起的自动化汽车行业所指出的那样,新的LOA分类法已经制定了(例如,SAE,2014),而且LOA的概念不太可能在短时间内消失。在这个阶段,我不认为LOA研究的主要问题是我们是否提出或解决了正确的问题(例如,什么应该自动化,自动化应该在多大程度上用于复杂的系统功能,什么时候应该用自动化,自动化应该如何与人交互);我认为我们已经以某种方式确定了正确的问题集。重要的是我们如何优先考虑突出的建模问题和推进系统设计。

  与其他相关研究领域(例如,人机交互)一样,有效的、可预测的HAI模型的发展很可能是在先前研究的基础上逐步进行的(cf. Norman& V erganti,2013)。然而,如果我们想要在HAI建模中“从头开始”,那么返回到其他的人信息处理模型可能是必要的,这需要考虑人和自动化通信的本质如何定义功能执行的能力。我认为LOA分类法(描述人和自动化能力)的实践基础很清晰;然而,有些人可能会对LOA的具体定义和在结果中缺乏一致的证据提出异议。关于LOA的定义,当然,任何分类法都是一种社会结构,就像许多其他当代的人因学理论一样。重点是,这个概念/理论是否能够进一步解释系统的可变性(如Parasuraman等人,2008年所主张的),现有的LOA方法的元分析证明了这一点。因此,我认为LOA方法的进步对支持即将出现的更广泛的HAS设计实践来说是重要的。

  根据前面的回顾,人们普遍认为,一些研究人员对LOA的概念不满意,有必要深入思考如何确保LOA分类法作为系统设计的基础的有效性和实用性。从根本上说,主要关注点是模型的准确性。这些模型提供了对自动化的特定人类行为和绩效的预测。这里的问题包括:(a)进一步理解人在使用自动化时到底做了什么,(b)在行为的定义和测量方面增加精确性。在本文的其余部分,我将讨论这些问题。首先,我提供了一些证据来证明LOA可能没有完全阐明人将使用自动化做什么。然后,我提出了在识别HAI设计的行为结果时需要更高的精确度,这保证了LOA框架作为系统设计的基础的一些进步。

对HAI描述模型的需求

一些当代的关于HAI的研究已经提出了一些方法和结论,这些方法和结论可能为如何使LOA分类法在本质上更具描述性指明了方向。通常,这些研究包括应用一般的人性能建模技术来描述或评估特定的自动化配置。为此,他们使用了各种工具、仿真和数据集。Bolton和Bass(2011)使用一种增强的算子函数模型语言来表示与患者自控镇痛泵交互时的人类行为,以及Reason(1990)的错误分类法所预测的错误行为。也就是说,作者通过考虑公认的关于人为错误如何产生的理论,开发了HAI和绩效预测模型。正式的误差模型是基于对人们在使用医用泵时发生疏漏和犯错的预测。这种误差状态建模可以被认为是研究人工智能的一种描述性方法。这项工作代表了对人类行为的形式模型的一个重要贡献,它描述了自动化错误使用时的影响。这项工作还为发展更多形式的、基于技术实际使用中观测到的错误和疏漏的模型和评估这些模型在预测绩效方面的效用提供了基础。

  作为当代描述性HAI建模方法的另一个例子,Degani和Heyman (2002)探索了用于评估自动化用户模型、自动化系统接口和实际系统能力之间关系的形式模型的效用。他们使用有限状态表示在各种条件下用户行为的期望。该研究提供了一种定量方法,用于确定机器状态和用户内部状态模型之间的对应程度,作为识别这些模型和系统接口是否足以支持有效的人工智能的基础。

Gao和Lee(2006)开发了一个依赖自动化的定量模型,基于信任来预测在监督控制情况下用户对手动和自动控制的偏好。基于主观期望效用理论和操作员与自动化交互行为的主观效用定义了该数学模型。根据实际自动化使用中操作员依赖的实证结果验证了该建模方法的仿真能力。此外,作者还演示了自动化类型如何改变操作人员的行为(在这种情况下,用信任来衡量)。

  前面的简要调查说明,有一些正式的HAI建模方法已经证明有潜力提供人类行为的描述性表示。然而,其中大多数是案例研究和应用,已经被限制在仿真或基于实验室的实验。除此之外,建模方法的某些方面限制了行为类型和可表示的自动化系统操作。然而,这些方法的某些方面可以被认为是扩展LOA分类法的基础,以更好地解释自动化使用中的实际人类行为。例如,Bolton和Bass(2011)开发的形式化建模方法可以作为一种工具,用于在一系列应用和任务情况下验证特定LOA对人的绩效的影响,从而使自动化查表的准确性和精度更好。尽管Degani和Heyman(2002)没有使用真实的HAI数据集来展示他们的建模方法,但是考虑到离散机器状态和用户行为的限制,该方法有潜力用自动化类型来表征实际用户行为。Gao和Lee(2006)建模方法的各个方面可以用来描述更广泛的人类行为(如自满、满足等)对不同类型自动化的影响,以及对于特定行为的特定LOA效用的预测。

需要精确地识别和评估自动化行为

此外,解决人在使用自动化时实际做什么这一问题也很重要。在现有的HAI模型中,一个关键的行为问题似乎很少得到考虑,那就是当使用自动化来实现任务目标时出现满足行为的可能性(Simon,1955)。这个问题听起来可能与解决HAI中的自满情绪类似,因此,精确地定义和区分这些行为是很重要的。自满被认为是在对操作模式认识有限的情况下对系统的状态缺乏怀疑;也就是说,系统操作员对绩效感到满意,但可能缺乏对其他更安全或更有效的操作方法的认识。然而,在大多数先进的自动化、人在回路系统中,我们都委托高技能和经验丰富的操作员进行管理。如我们所知,即使专家们也不能避免自满(Parasuraman & Manzey,2010),但这种行为(从定义上看)应该在新手中更常见。与此相关的是,即使在专家中,“无故障”(或高度可靠的)自动化也可能会降低对故障的预期,但对于新手来说,这种可能性更大。另一方面,满足是指接受一个最容易获得或最容易识别的操作解决方案,该操作方案满足最低程度的绩效期望,并且满足行为在专家日常工作中是很常见的。它可以代表在了解风险或潜在损失的情况下,为了提高操作效率而表现出对进一步努力的厌恶。满足也被认为是一种“足够好”的认知启发,可以调节操作员如何使用自动化(Kaber等人,2013年)。Simon(1955)认为,理性决策过程提出了更高的信息处理要求,因此人依赖于使用启发式来减少认知负荷以及提升绩效。也就是说,满足是一种由减少工作量和提高操作效率的欲望所驱动的行为倾向,但这并非HAI独有(自满也是如此)。然而,在自动化系统的使用中,这些类型和等级的自动化对操作人员提出了额外的信息处理要求,可能导致操作人员会切换到其他更直接(但不是最优)的控制模式,以实现所需的系统状态。一般来说,这种满足方法可以在许多操作环境下工作而不造成系统损坏;然而,这种行为并非在所有情况下都有效,尤其是在高需求、非额定情况下。因此,当与各种类型的自动化一起使用时,认知启发式的使用应该被认为导致绩效不太可靠和潜在的风险倾向增加,并且这种行为应该在描述LOA的含义时被考虑。

HAI满足问题的证据

几年前,我参与了一项高保真飞行模拟实验(Kaber等人, 2013),这是HAI中满足行为的一个例子。在本研究中,我们观察到经验丰富的飞行员依赖于先进的导航自动化和使用“足够好”的启发式用于飞行器飞行路径控制。

该实验以15名现役固定翼飞行员为样本,他们至少有15年的飞行经验(平均14895小时),我们提出了垂直起降(VTOL)方案,并模拟了飞机导航系统的故障。所有的飞行员都在阿帕奇飞行员的指导下接受了大量的手动控制和地面真实演练的训练。在不同的试验情况下,故障反映在普通航线导航显示器(ND)和叠加在高级主飞行显示器(PFD)的“空中高速公路”(HITS)通道显示上。在着陆过程中,该故障导致航向引导(航线、通道)偏离定位器(LOC)的原始数据,如航向偏离指示器所示。通道明显偏离了预期的飞行路线。

一般来说,飞行员接受实际飞行轨迹偏离实际航线的概率在使用ND航线时为94.8%,在使用HITS通道时为75.7%。这些功能在视觉上对飞行员来说是最容易理解和可用的。在许多情况下,当我们不得不终止测试试验时,LOC被“固定”在距离期望轨迹(模拟地基雷达数据的最小和最大接收范围)±3个点的偏差上。尽管与使用ND航线相比,该HITS通道提高了飞行员对故障的检测能力,但与传感器数据(LOC)相比,飞行员更关注自动导航功能(ND航线和HITS通道),这会导致潜在的不安全飞行情况。

我们研究的所有参与者都对飞机制导形式和原始传感器数据有很好的认识和高度的训练。一般来说,模拟器的绩效不太可能受到飞行员知识的限制。飞行员并不是不知道飞机技术,也没有怀疑飞行器的状态,而是他们似乎对提供给他们的最容易获得的信息(ND航线或HITS通道)感到满意,这满足了他们对飞机控制的期望。然而,一个额外检查LOC的努力,一个先进的PFD在商业驾驶舱内的最常见的特征,将立即识别出路径的大致偏差。包括与ND航线或HITS通道的更简单的任务程序,我们观察到的飞行员行为表明飞行员对可能使飞行更有效和/或更安全的控制措施的知识的厌恶。尽管Kaber等人(2013)对观察到的响应提供了一些其他解释,但在导航错误检测方面,满足行为似乎非常有可能发生。

有些人可能会认为“自动化偏见”(Skitka,Mosier, &Burdick,1999)对飞行员绩效起了作用;然而,在我看来,这种偏见并不是人类行为错误的“根本原因”。太过强的自动化设计特征,比如HITS,可能会加剧人的自满和满足行为倾向,但我认为情况并非如此。也就是说,自动化设计不会导致自满和满足,否则它们将是HAI独有的行为。

需要考虑HAI的满足问题

一些研究已经解决了复杂自动化系统与人交互概念中的满足行为。Hollnagel(1998)在定义不同的认知控制模式(CCM)时确定了非标准行为,如自满和满足。这些模式包括与自动化交互时通常应用的战略模式、依赖于启发式和基于规则的行为使用的策略模式(涉及一些满足)以及严重依赖满足行为的机会主义模式,例如在苛刻条件下对环境做出即时响应。在战术CCM中,操作人员可能有意使用更简单的任务/决策启发式,以进一步优化其他需求或整体系统绩效。一般来说,根据即时绩效目标、任务需求和可用资源(能供性),CCMs表示选择行为,它的结果可能不是最优的,但对于某些操作来说是足够地而且是非常高效的。人类行为规范(Hollnagel,1998)和结果识别的这种精确性是支持有效系统设计方法的制定和支持评估所必需的。

基于Hollnagel(1998)的研究,Feigh(2011)将CCM方法作为航空公司运营管理的决策支持设计的基础,以支持在每种模式下不同的认知行为模式。在几个问题中,决策支持策略旨在最大限度地减少用户的努力(战术模式中的周期;参见Feigh,2011,表1),并提供了决策备选方案的比较参考(在战略和战术模式下)。该工具的目的是让决策者在系统操作期间选择他们认为最能支持他们的CCM的不同界面模式。这个方法是成功的,结果显示当使用界面模式镜像CCM时,系统绩效相当出色。尽管如此,Feigh(2011)假定了识别和表征不同操作人员决策行为的能力,并且每种模式的决策支持设计建议都基于这些假定,包括满足。

为了使自动化有效地支持“最优”的人的绩效行为,我们需要:识别非标准和非最优行为的可观察指标,比如满足;制定指标衡量标准;确定操作员厌恶努力的阈值,这可能导致决策行为和自动化使用的差异。一般来说,先前的LOA建模研究没有通过测量、建模和开发控制方法的工程周期来考虑满足(以及决策制定的认知控制的相关模式)。当与自动化交互时,我们需要更详细和准确的人的表现模型来解释人的一系列行为。一个出发点是,例如,HAI中的战术和机会主义行为的概念化和潜在的满足响应,以及它们对自动化辅助设计的意义,这可以用于扩展LOA方法。

潜在的解决方案(LOA模型的进展)

使用LOA实证研究使分类法具有描述性

为了改进HAI的描述模型,人-系统性能的模拟研究可以检查特定的设计配置和任务场景。然而,这样的努力并不一定能为不同的领域产生一般化的描述性模型。许多实证研究的结果需要反馈到模型中,从人工的假设性概念转向实际HAI的描述性特征。然而,解决这个需求取决于在开发LOA框架时的泛化能力。与此相关,有人说Jordan(1963)在几十年前就呼吁更多关于自动化中的人的绩效的数据,而我们现在的研究方向在哪里?我不反对先前有人呼吁对LOA进行实验研究,以确定自动化使用中的经验规律(如果可能的话)。在某种程度上,这一呼吁得到了响应,但对规律的识别仍在进行中。Onnasch等人(2014)的元分析结果为这种努力提供了一个基础,包括识别受LOA影响的实际人的绩效、工作量和态势感知的一些模式。但是,这些模式需要转化为对可能的函数分配方案的定义的修改,作为现有查找表的一部分。

人类行为可以通过可能的系统功能分配以及HAI的实证结果与特定LOA的关联来解释。基于对满足行为的理解,自动化可能的类型和等级可能受到适当的限制。此外,特定的自动化实施结果可能需要在额定和非额定操作情况之间进行排序。实际上,我认为应该对可选LOA(修改可能的功能分配方案的定义)的细粒度分类法进行研究,以产出用于人的绩效预测的描述性模型。

现有的Parasuraman等人(2000)的自动化类型和水平模型或几年前我和Endsley(Kaber &Endsley,1997)提出的类似模型可以作为描述性loa模型的有用起点,可以考虑的有,比如,通过功能分配选择/方案确定的人类操作员的最低期望水平(厌恶努力)和履行职责的效率如何调节HAI结果。Parasuraman等人对信息获取、信息分析、决策选择和行动实施的定义比较详细,但可能不能准确解释操作员任务经验、自满和满足如何影响系统功能的传递。一般来说,自动化的便利会导致人力投入低于研究人员在开发模型时的预期程度,因此,自动化系统的结果最终可能会低于预期。

在任何增强现有的自动化类型分类和等级的努力中,满足行为和其他相关的人类行为都需要进行精确的描述。这种描述应基于实证数据集或数学函数。由Gao和Lee(2006)开发的自动化依赖方程使用对行动效价的测量作为基础,来识别人对自动化的偏好何时会改变。他们还确定了一个反应阈值,表明对手动或自动控制的偏好。类似的模型可以用来量化满足行为和一个阈值,还可以用来确定何时需要不同形式的人的帮助(Feigh建议,2011年)。这样的等式可以用来调节与各种LOA相关的对人的绩效的期望,并提高基于模型的预测准确性。工程师不仅能够根据(a)总体绩效、工作负载和跨等级的态势感知趋势选择LOA,还可以考虑(b)满足行为可能性的定量预测等(作为“操作风险”等级),这可以有效地提高特定系统的绩效。表2显示了SAE(2014)驱动LOA分类法的修改,其中包含了这两个信息组件(带有推测性内容),目的是在概念设计阶段支持设计者的决策制定。该表没有提供动态驾驶任务中功能分配的描述,而是提供了更广泛功能的职能和代理分配矩阵,包括导航和特定类型的监控。此外,每个LOA对驾驶员结果的预期影响被列出来,而不是在功能故障的情况下仅确定谁该负责。该表保留了系统或LOA可行的驾驶模式/情况的识别,但将这些情况划分为“额定”和“非额定”状态,并在没有明确识别的情况下考虑特定的驾驶环境。SAE概念的另一个延伸是由于自动化系统的滥用或误用导致的潜在风险(即可确定的危险暴露)。一般而言,非额定模式下的操作风险较高,因此,非额定模式下的驾驶员满足行为可能更有可能发生。

表2:描述性自动化等级(“查找”)概念与推测性自动化结果的粗略例子


职能和代理分配

系统绩效结果

支持的驾驶情况

操作风险


额定→  L/M/H

自动化等级

车辆控制

行驶

环境监测

系统监控和干预

驾驶任务绩效

驾驶员工作量

驾驶员态势感知

非额定→L/M/H

手动控制

等级0

 

M/H

H

H

Y       L

Y      L/M

半自动

等级1

人+系统

M/H

M/H

M/H

Y       L

  N        H

等级2

系统

M/H

L/M

L/M

Y       L

  N        H

等级3

系统

人+系统

人+系统

人+系统

M/H

L/M

L/M

Y       L

  N        H

等级4

 

系统

系统

系统

人+系统

H

L

L

Y       L

  Y        M

完全自动化

等级5

系统

系统

系统

系统

H

L

L

Y       L

  Y        M

参考

基于(部分)美国机动车工程师学会(2014)的驾驶自动化等级

须根据实证确定

须根据实证确定

注意:L  =低;M =中等;H =高。

 

利用反馈来解决满足问题

Parasuraman和Riley(1997)曾说过,在高等级的“权威”自动化下,必须使用复杂的反馈机制来对抗操作员的自满,并解决操作员态势感知方面的潜在损失。这种反馈的目的是确保操作人员对自动化活动和状态的认知,以及对监视和干预行为的适当校准。他们的建议可能对现有的反馈机制设计不良的系统有用,使得新手可以在对所有潜在控制模式的认知有限的情况下操作。

解决类似情况下操作员满足行为的问题可能需要其他形式的工程控制,包括提醒操作员在额定情况下“最低可接受”行为的一致模式的机制,该模式在非额定操作情况下会造成安全临界状态。也就是说,在“严格”绩效容限下,操作员在系统控制中的最低期望水平可能导致事故 (例如,晴空情况下的飞行路径控制与对流活动的通过区域)。这种类型的界面设计方法类似于Dekker和Woods(2002)推荐的在复杂系统中使自动化更具有团队合作精神的方法。还有其他的管理控制,包括更严格的操作人员培训和内部校准,以达到可接受的最大精度状态和最大控制误差状态。

结论

任何工程建模方法在本质上都是在发展的。在这个阶段,我认为进一步发展LOA概念是值得的,可以提高预测能力。然而,我认为放弃一个支持复杂系统概念设计的现有观点是没有意义的,除非我们有其他同样可用和有成熟概念的替代方案来解决广泛的大规模自动化设计问题。我还认为,“放弃”人因学研究的概念/方法意味着,至少那些主张这样做的人应该客观地证明,这个概念是如何进一步模糊了对人的绩效可变性的理解,而不是仅仅提供解释。

回到什么是自动化和如何让人和自动化相处的问题

前面提到的发展LOA分类法的一般方法代表了一种潜在的战略,以实证研究为基础,积极扩展现有的研究,它的重点是使LOA分类法能更好地描述人在复杂系统控制中的职能,以及完善对人的绩效结果的定义和度量。然而,这并不是说Dekker和Woods(2002;人和自动化如何交互)以及Pritchett等人(2014;谁对什么系统结果有贡献)和其他研究人员的问题并不重要。当然,在系统设计中缺少对HAI的本质的考虑,可能会导致人适应“笨拙”自动化的各个方面。然而,我认为我们需要系统地确定发展这个理论的起点,而且我想问的是,如果我们对自动化和人将做什么以及如何做没有什么概念,怎么可能讨论HAI呢。只有有了这些信息,工程师才能开始谈论界面设计和交互协议(例如,“团队游戏”将永远是“玩家”功能集成的策略)。有些人可能认为,存在一套基本的HAI原则作为任何LOA分类法的基础。然而,这个争论的一个主要问题是人和自动化职能的变化。也就是说,当一个代理的复杂性或操作环境发生变化时,自主和/或自动化代理之间的“交战规则”必须改变。一般来说,在任何工程系统的设计和开发中,功能强弱、功能流程和任务分配的映射是系统界面设计的关键概念基础。一旦确定了一个领域的功能分布范围并权衡引用了自动化查找表,设计人员就可以继续讨论如何提供各种LOA来优化系统绩效。从我的角度来看,这是基本的人因工程,我相信这样的查找表对发展保存和扩展的概念和详细的系统设计有好处/价值。

使用LOA分类法解决问题的好处

LOA分类法的HAI建模范式从带有自动化的人类行为的假定概念转变为LOA的描述性定义,这可能使对人自动化系统绩效的预测更准确且更精细。满足是一种潜在的安全关键行为,需要明确定义,如果可能的话,可以将其测量和定量建模并表示,以增强我们用复杂的自动化系统预测人的绩效的能力。除此之外,我们应该进一步完善我们对特定的人的绩效构造和测量方法的理解,这应该会导致我们可以对自动化使用对人的绩效的影响进行更敏感的评估,并可能观察到由于功能分配而产生的更明显的行为趋势,而不是仅仅因为界面设计的细微差别。解决这些问题会使我们更加准确和完整地理解LOA对人的绩效的影响。最终,这一研究方向将产生工程模型,这些模型可以有效地作为预测人和系统绩效、操作员工作量和系统感知结果的基础,以支持自动化的设计和实现过程。

致谢

我要感谢博士EmilieRoth和Amy Pritchett以及四位匿名评论家,感谢他们花时间对本文进行的深思熟虑的评论。所有的意见都非常具有建设性,并使我注意到一些概念性问题。我在这个“思想部分”上的工作得到了美国国家航空航天局(NASA;NNX16AB23A)。本文所表达的观点和意见是我的个人看法,并不一定反映NASA的观点。

参考文献 略

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值