五论以用户为中心的设计:从自动化到智能时代的自主化以及自动驾驶车
2020-05-28
(浙江大学心理科学研究中心,杭州 310058)
1 引 言
1.1 从自动化到自主化技术的应用
自动化(automation)技术已经广泛地应用在人们的工作和生活中,从简单的室内恒温器,到复杂的工业自动化生产线、飞机驾驶舱自动化飞行系统以及航天在轨设备等。自动化技术为提高人机系统可靠性和效率、降低操作员体力工作负荷等方面带来了许多益处。随着技术的日益成熟,自动化技术已经触碰到了其发展的“天花板”,尤其在一些特殊操作环境中(例如,不需要或者无法人工干预、设计无法预料的操作场景),人们需要自适应、智能化、个性化和更高水平“自动化”的技术系统。
智能时代的自主化(autonomy)技术应运而生。自主化技术采用了人工智能(AI)等技术,具有学习、自我导向、独立执行等能力,在特定的场景下可以自主地完成独立于人工干预的一些特定任务。目前,我们开始进入一个逐渐充满自主化技术的世界,越来越多的自主化系统(autonomous systems)开始投入使用或者正在开发。例如,采用软件自主代理和基于语音输入的智能音箱、智能决策支持系统、大型智能无人机、智能机器人、自动驾驶车(具有高等级自动驾驶功能)、空间行走机器人(月球车、火星车等)自主武器系统,甚至包括网上自主传播的Stuxnet病毒软件等。
1.2 基于自主化技术的自动驾驶车安全问题
目前许多企业投入了大量资金来研发基于AI等自主智能技术的自动驾驶车(autonomous vehicles,根据智能技术和英文原文,应该严格地称之为自主驾驶车),希望在未来能够开发出全自主化的无人驾驶车。在美国与汽车驾驶相关的交通死亡事故中,约94%是由驾驶员的人为差错所导致,美国国家公路交通安全管理局(NHTSA)(2018)希望未来的无人驾驶车可以通过消除这些人为差错来大幅度减少死亡事故。然而,Lee & Kolodge(2018)的研究表明,在被调查的8571名美国司机中,35%的司机表示他们肯定或不太会相信自动驾驶车在没有驾驶员控制情况下具备安全运行的能力。CARAVAN(2018)的民意调查也表明,在1005名受调查的美国司机中,64%的司机出于对安全的担心而表示不愿意与自动驾驶车分享道路,63%的司机不支持降低目前联邦道路安全标准以便让更多的自动驾驶车上路。另外,近几年在美国发生了多起自动驾驶车致命事故(NTSB,2017;Endsley,2018)。
在人因学(Human Factors)界,一些资深人因学家表达了对自主化技术的应用可能引起的安全问题的担心,尤其是对自动驾驶车的安全的担心(de Visser et al.2018;Endsley,2019a,2019b;Hancock,2017,2019;Lee,2019;Waterson,2019;Woods,2016)。Hancock(2019)将当前的自动驾驶车研发热潮形容为“就像一匹马已离开马厩”,而Salmon(2019)认为“人因学再次发现自己处在一个相似的境地:追逐一匹已经真正开始狂奔的马”。社会目前正在引入与传统自动化技术不同的更加独立的自主化技术,这些新技术的研发正在快速进行,但是人因学问题、安全和对大众心理的负面影响等因素没有引起足够的重视(Hancock,2017,2019;Endsley,2019a;Salmon,2019)。
1.3 问题的提出
综上所述,继自动化技术后,自主化技术正在走进人们的工作和生活。一方面,许多企业雄心勃勃地投资于自动驾驶车等自主化系统的研发;另一方面,大众信任度较低,一些致命事故相继发生,人因学家们对自动驾驶车的安全表达了很大的担忧。并且,已有人开始混淆自动化和自主化的概念,这可能导致对技术不恰当的期望和误用(Kaber,2018;Bradshaw et al.2013),因此,及时开展这方面的人因学研究是非常必要的。
本文要回答的主要问题是:自主化与自动化各自的人因学特征和区别是什么?为提高自主化系统的安全性,我们应该从以往人因学针对自动化的研究中得到什么启发?在自主化系统(包括自动驾驶车)的研发中,应该如何发挥人因学的学科作用?针对这些问题,本文基于以用户为中心的设计理念(许为,2003a),即以人为中心的设计理念,从自主化系统人类操作员的需求和利益等因素出发,综述相关的人因学研究,讨论、分析以及提供针对自主化系统和自动驾驶车研发的人因学解决方案。
2 自动化和自主化的人因学分析
2.1 人-自动化交互的人因学研究
自动化系统通常依赖于固定的逻辑规则和算法来执行定义好的任务,并产生确定的操作结果,它的操作需要人类操作员启动、设置控制模式以及编制任务计划等,在一些特殊操作环境中(例如,设计无法预料的操作场景,非正常或应急状态),需要人工干预来控制系统的运行。自动化通常不会完全取代操作员的岗位,但是它将人类工作的性质从直接操作转变为更具监控性质的操作,并且许多自动化系统可以设置为不同的自动化水平。例如,现代大型民用飞机驾驶舱装备了自动化飞行系统后,飞行员可以设置全自动飞行状态,由飞行管理系统(FMS)来完成所有飞行阶段的任务(除起飞以外),或者启动自动飞行指导仪来采用半自动飞行操作,飞行员的主要任务是监控性质的飞行操作。但是,自动化系统本身没有自主能力(Kaber,2018),FMS功能的实现是基于飞行员预先编程的飞行计划,FMS本身没有能力来制定和启动飞行任务,在非正常的操作场景或者应急状态时,飞行员必须立刻断开自动飞行系统,人工干预接管对飞机的操控。
在过去的几十年中,人因学界已经对一些复杂领域(航空航天、核电、工业制造等)中的人-自动化交互开展了广泛的人因学研究,评估自动化技术和操作对操作员的情境意识(SA)、自动化模式识别、心理模型、警戒水平、信任、工作负荷、工作绩效等的影响,这些研究结果已达到基本一致的共识(例如,Sarter & Woods,1995;Endsley,2017a;许为,2003b)。自动化操作中的监控作业虽然减少了操作员的体力工作负荷,但实际上会提高认知工作负荷(Grubb,et al.,1994),导致操作员警戒水平的降低(Hancock,2013),操作员往往会产生过度信任(自满),并且过度依赖自动化(Parasuraman & Riley,1997)。研究发现许多自动化系统存在脆弱性,在设计所规定的操作情况下系统运行良好,但是在遇到意外事件需要人工干预时,可能导致操作员的“自动化惊讶”(automation surprise)和自动模式混淆等问题(Sarter & Woods,1995)。操作员可能无法理解自动化正在做什么,为什么要这样做,为什么它会意外地从一种自动化模式转换到另一种模式。
自动化水平也影响操作员的工作绩效、工作负荷和SA(Kaber,2018)。Endsley & Kiris(1995)的研究证明全自动化所导致的SA损失可以通过使用中等程度的自动化来减少。Onnasch et al.(2014)通过对18项研究的元分析,发现自动化程度的提高,有利于操作员工作绩效的提升和工作负荷的下降,但是操作员的SA和手动技能也下降。Bainbridge(1983)在总结了以往研究的基础上提出了一个经典的现象,即“ironies of automation”(自动化的讽刺):自动化程度越高,操作员的介入越少,对系统的关注度就越低,在应急状态下,操作员就越不容易通过人工干预来操控系统。
由此可见,许多因素会导致操作员SA的下降,产生“人在闭环外”(out-of-the-loop)效应、诊断问题的准确性和效率降低的问题,从而可能会做出错误的人工干预(Endsley,2015;Endsley & Kiris,1995;Wickens & Kessel,1979;Young,1969)。自动化的这种脆弱性给操作员的工作绩效和系统安全带来了挑战,在民用航空领域,由于这些原因驾驶舱自动化导致了多起重大飞行事故(Endsley,2015;Xu,2007)。
针对以上这些自动化问题,人因学提出了许多解决方案。例如,提倡以人为中心的自动化设计理念、开发有效的自动化界面人机交互设计、优化系统设计、加强操作员培训、改进操作程序等(Billings,1996;Xu,2007)。Endsley(2017)综合以往的研究提出了一个人-自动系统监督(HASO)模型,该模型概括了产生自动化人因学问题的主要因素,并且为实现有效的自动化系统开发提供了一个综合的人因学解决方案。
2.2 自主化与半自主化
不同于自动化,基于AI等智能技术的自主化系统具有学习等能力,可以在没有人工干预的情况下自我导向,独立执行任务,并且可以在一些未预期的条件下成功执行任务,从而能在更广泛的操作条件下提供更多的高水平“自动化”系统功能(den Broek,et al.,2017;Kaber,2018)。自主化的定义是基于特定场景和上下文环境中的特定任务(Madni & Madni,2018;Kaber,2018)。比如,一辆装备L3等级自动驾驶功能的自动驾驶车,基于专门的AI算法和机器学习训练,能够在一个特定场景中(工业园区内),根据操作设计领域(ODD)参数(比如,不超过25英里/小时的速度),自主独立地执行特定的任务(沿着固定的线路接送人员)。显然这辆自动驾驶车无法在园区外运行,因为该自主智能系统还没有学习和训练掌握园区外更为复杂的交通环境。
我们距离全自主化技术的实现还有相当一段路要走。现有的自主化系统实际上是只能在有限的场景中自主完成有限任务的半自主化系统(semi-autonomous systems),这里的“半”字没有量化的意义,仅代表一个具有有限自主化能力的系统。实现全自主化技术的困难除了系统复杂性的增加会提高系统故障发生的概率以外,主要有两方面:一方面,许多自主化系统基于AI深度学习等算法构建,这些算法擅长模式识别,但目前缺乏在新条件下预期操作所需的因果推理能力(Pearl & Mackenzie 2018);另一方面,在开发中,设计者不可能预测到一个系统可能面临的与所有场景和任务相关的变量条件,只能基于对已知场景和任务的有限了解、潜在操作和结果的假设来设计,当对抗真实环境时,系统可能遇到设计师从未考虑过的情况而无法执行正确的操作(Endsley,2015;Kaber,2018)。
以自动驾驶车为例,国际汽车工程师协会(SAE)J3016条例主导了对自动驾驶等级的定义(SAE,2018),包括L0到L5的六个自动驾驶等级:L0-无自动化、L1-驾驶辅助、L2-部分自动化、L3-有条件自动化、L4-高度自动化以及L5-完全自动化。目前正在研发的自动驾驶车主要装备L2和L3等级的自动驾驶功能。中国人工智能学会(CAAI)理事长李德勤院士(2017)认为当前应该采用务实的方法,集中开发基于各种固定场景下的L3等级自动驾驶车,这些场景包括园区观光、市区定点接驳和定点物流等相对简单的场景,然后在安全和技术成熟的基础上再逐渐地向L4等级拓展。拥有全球首个自主驾驶车封闭试验场的密歇根大学M-city实验室主任彭晖(2019)认为企业界在未来几十年之内应该集中开发L4级别(含)以下的自动驾驶车,在这个范围内保证安全和最低成本,一个负责的企业目前不应该去追求设计L5等级全自动化的自动驾驶车。
由此可见,目前还没有成熟的技术能够实现完全自主化的系统,我们所面对的都是一些半自主化系统。因此,本文所讨论的重点是针对这些半自主化系统的人因学解决方案。
2.3 自主化人因学解决方案的切入点
基于以上讨论,表1进一步比较了自动化、半自主化、全自主化之间的主要人因学特征。由表1可知,一方面,从“机器智能”的角度来说,不同于自动化技术,自主化系统具有一定的认知(知觉整合、模式识别、学习、推理、决策等)、对不可预测环境的自适应等方面的机器智能特征,AI学界将具有这些机器智能特征的软件或者硬件实体称为智能代理或自主代理(intelligent /autonomous agent),也有人开始称之为认知代理(cognitive agent)。从人因学的角度出发,本文统一称之为自主化认知代理(以下简称为认知代理),因为这些自主化系统已经具备一定程度上的类似人类的认知能力,有些甚至已经超越人类(例如,谷歌的阿尔发狗围棋机器人)。相反,基于自动化技术的自动化系统无论怎样先进(例如,现代大型民用飞机驾驶舱中的自动化飞行系统),它们都不具备这些认知能力,不具有独立执行操作以及对不可预测环境的自适应等特征,这是由自动化技术本身的系统原理、架构和功能等决定的。NASA和Rockwell-Collins在针对未来单人操纵智能化民用飞机驾驶舱的概念性预备研究报告中指出,未来单人操纵智能化驾驶舱的技术不是在目前自动化驾驶舱的基础上去寻求更加自动化的机载技术,而是需要智能化的、能够与飞行员开展有效合作的自主化系统(Bailey,et al.,2018)。因此,从人因学来看,自动化和自主化之间的区别不是在自动化水平上递进的关系,有没有基于智能技术的认知等能力是两者之间本质上的区别。
表1 自动化和自主化之间人因学特征的比较
另一方面,从“操作独立性”的角度来说,半自主化系统的独立执行操作性能是针对特定场景和任务,在应急状态下,操作员必须通过人工干预方法来掌控系统的控制权。半自主化系统在运行操作中与自动化系统一样需要人工监控和必要的人工干预,这就意味着在人-自动化交互中发生的人因学问题有可能在人-自主化交互中发生。对近几年在美国发生的多起自动驾驶车致命事故的调查结果清楚地表明,类似于自动化中的人因学问题,驾驶员对基于自主化系统的自动驾驶车(尽管自主化程度低)的过度信任、参与度低以及注意力不集中,同时人机界面设计不能有效地支持人工监控,这些原因导致驾驶员未能在紧急情况下采取快速有效的人工干预来接管车辆(NTSB,2017;Endsley,2018)。驾驶员行为受他们对自动驾驶车的信任、期望等因素的影响。有些制造商似乎高估了当前自动驾驶车自主化的性能,低估了人因学问题的严重性。一些市场宣传信息可能导致一些消费者对自动驾驶车的不恰当期望和操作行为。自主化技术潜在的操作独立性可能也会造成人们对自主化技术产生类似于对自动化过度依赖和信任(自满)的典型人因学现象(Parasuraman & Riley,1997)。这些事故的调查结果也清楚地表明,类似于自动化中的人因学问题,自主化(半自主化)系统使用中有效的人机交互和人工干预对安全也具有极其重要的作用。即使某一天我们能够实现全自主化的系统,从以人为中心的设计理念出发,同时考虑到自主化系统操作结果潜在的不确定性(见表1),人因学强调人类操作员应该是系统的最终决策操纵者。
因此,对自主化与自动化人因学特征的比较表明:(1)自主化(包括半自主化)与自动化之间在认知能力等方面存在本质上的差异;(2)自主化(主要指半自主化)与自动化相似,在操作独立性方面都需要必要的人工监控和干预。这种差异性和相似性对人因学研究以及应用具有极其重要的意义,是寻找自主化人因学解决方案的切入点。这意味着针对这种差异性人因学解决方案,既要采用有效的人因学思路,来找到具有针对性的途径和方法;同时针对这种相似性,人因学解决方案可以考虑利用以往自动化人因学的方法和结果。
3 自主化的人因学解决方案
3.1 人-自主化交互的人因学分析
针对人-自主化交互的人因学研究目前处于起步阶段,主要是基于以往人-自动化交互的人因学研究成果。Endsley(2017a)将人-自动化交互的人因学问题总结为“自动化难题(automation conundrum)”:随着系统中添加更多的自动化功能,自动化水平提高,自动化任务序列的持续时间更长,操作员更可能信任系统,更可能失去或降低SA,越来越可能在监控作业中抓不住关键信息,需要时就越不容易快速准确地人工干预来接管对系统的操控。自动化难题类似于经典的“自动化的讽刺”现象(Bainbridge,1983)。
Endsley(2017a)认为“自动化难题”会对自主化造成根本性的障碍。在自主化系统中,随着单个功能“自动化”水平的提高、整体系统的自主化以及可靠性的增加,操作员对这些功能的关注度和SA降低,在应急状态下出现“人在闭环外”的可能性也增加。针对基于自主化技术的自动驾驶车人因学研究以及近几年发生的多起自动驾驶车致命事故,进一步核实了影响自动驾驶车安全的人因学问题(Navarro,2018;NHTSA,2017;Zhang,et al.,2019;Endlsey 2017b,2018),包括人机界面设计问题、降低的SA、自动化模式混淆、“人在闭环外”、低参与度、过度依赖或信任、手动操作技能的退化以及缺乏基本的驾驶员培训等,这些问题正是以往人-自动化交互中的典型人因学问题。
另外,具有学习等认知能力的自主化系统随着在不同环境中的使用会不断提升自身的能力,自主化系统的操作结果所具有的不确定性意味着系统有可能以意想不到的方式发展,因此自主化有可能比自动化给操作员带来更强烈的类似“自动化惊奇”的体验(Sarter & Woods,1995;Woods,2016)。这些效应可能进一步放大以上这些人因学问题的影响程度,这种现象被称为“lumberjack”效应(Onnasch et al.2014)。此外,与自动化相比,自主化还可能会导致操作员高度情绪化的反应,一些社会因素更容易对操作员的心理产生影响(Clare,et al.,2015;de Visser,et al.,2018)。
由此可见,虽然自动化技术中人因学问题的出现和被人们充分认识经历了一个长期的过程,经典的“ironies of automation”现象在30多年后仍然没有得到彻底的解决(Strauch,2017)。但是,目前随着AI等智能技术催生了新的自主化技术,我们又遇到了一个新的“irony”。就如同当年自动化新技术在民用飞机驾驶舱设计中刚刚应用的时候,人们在对新技术欢呼雀跃的同时,并没有充分意识到这些新技术也可能带来对安全的潜在威胁。今天,人因学有责任提醒工程技术界和公众必须对智能时代的自主化新技术保持一定的冷静和敬畏的态度,人因学要发挥自己的学科影响力。
3.2 自主化带来的新型人机合作关系:人机组队
除了上面讨论的人-自主化交互中的人因学问题,自主化技术的引进还带来了智能时代人机关系的重大转变。表2总结了在不同的技术发展阶段,人机关系、人机角色以及作业性质的演变。其中,智能时代自主化技术所带来的新型人机关系必然带来智能时代对人因学研究、应用和设计范式的新思考,人因学必须充分考虑人类操作员和机器角色的新变化:(1)在人-自动化交互(人机交互,HCI)中,人类操作员作为监控员,而机器充当辅助工具;(2)在人-自主化(半自主化)交互中,同为认知代理的人类操作员和机器作为队友而合作,机器拥有的“辅助工具+合作队友”双重新角色是自主化所特有的,这种机器角色的转变代表了智能时代人机关系的重大转变。
表2 不同技术发展阶段中人机关系、作业性质以及人机角色的演变
已有人因学研究者洞察到了智能技术的引入正在改变传统的人机关系,“人机组队”(human-machine teaming,HMT)在一些研究中正在替换传统的“人机交互”(human-computer interaction,HCI)(例如,Chen & Barnes 2014;Brill,et al.2018)。在HCI中,基于计算技术的机器是通过“交互”来支持人类操作的一种工具(例如,基于计算技术的自动化)。当基于自主化技术的机器获取一定的认知能力后,机器从一种支持人类操作的工具发展为一个具有一定认知能力的自主化智能体,因此人与机器之间的关系演变成为一个团队合作的队友关系,即人-自主化组队(Human-Autonomy Teaming,HAT)(Brandt,et al.,2018;Shively,et al.,2018)。在HCI中,也存在一定程度的人机合作(协作),但是HCI的人机合作与人机组队合作之间有着本质上的差别。理由如下:
第一,正如自主化与自动化之间人因学特征的比较所表明的(见2.3和表1),基于智能技术的自主化系统是具备一定认知能力、独立执行能力、对不可预测环境的自适应能力的认知代理;在HCI中,基于一般计算技术的机器(例如,自动化系统)不具备任何这些认知能力。两者之间在认知能力(“有”与“没有”)上的区别决定了两种合作在本质上的差别。
第二,在人机组队中,两个认知代理(人与自主化系统)之间的合作是主动的(即人机各自可以启动激活人机之间的合作)、双向分享的(即人机之间各自可以拥有自己的但是可分享的情境意识、信任、意图、决策控制等)、智能互补的(即人类的生物智能——认知信息加工能力;机器智能——由AI等技术实现)。在HCI的人机合作中,作为辅助工具的自动化系统是被动的(即只有人可以启动激活,机器只能以“刺激-反应”式的、依赖于由人事先固定设计的逻辑规则和算法来响应人类操作员的指令)、单向非分享的(即只有人针对机器单方向的信任、情境意识、决策控制等)、非智能互补的(即只有人类的生物智能)。
第三,人机组队(human-machine teaming)(而不是人机团队,human-machine team)中的“组队”和“teaming”(中英文动名词)可以被认为是表征了一种人与代表自主化系统的认知代理之间双向地、主动地寻求合作的动态过程。认知代理的这种合作主动性是由自主化系统所特有的认知能力、独立执行操作、对不可预测环境的自适应等机器智能的本质特征所决定的,这也是一般非智能计算技术(例如,自动化技术)所望尘莫及的。
因此,HAT是一种更加高效的人机合作。但是,HAT的人机合作也是一把双刃剑。一方面,人机双方是强强组合,例如,基于AI智能技术的自主化系统的认知代理,利用大数据和深度学习技术可以整合来自大量专家知识的智慧,主动地帮助人类操作员在非正常的场景中解决以往单个人类操作员所不能解决的问题,这是一般的HCI或者自动化系统中的人机合作所无法达到的;另一方面,如果HAT设计中没能保证人拥有系统的最终决策控制权的话,基于AI技术的自主化系统有可能带来安全的隐患。因此,HAT既是人因学的新机遇,也是新挑战。这种新型的人机合作关系要求人因学人员超越以往的设计思维,在自主智能化技术人因学研究和应用中,充分考虑这种新型人机合作关系,从而为自主化技术提供有效的人因学学科支持和完整的人因学解决方案。
目前,有关HAT在概念层面上的人因学研究已在一些领域初步展开。例如,空中智能交通管理系统中的空管员-空管自主化组队(Kistan,et al.,2018),特殊操作环境中的操作员-智能机器人组队(Calhoun,et al.,2018),智能飞机驾驶舱中飞行员-机载自主化组队(Brandt,et al.,2018),未来高等级自动驾驶车中的驾驶员-车载自主化组队(de Visser et al.,2018;Navarro,2018)。也有研究者提出人-自动化组队(human-automation teaming)的概念(Christoffersen & Woods,2002,Mosier,et al.,2017)。根据以上针对“组队”的讨论,人-自动化组队是不成立的,因为不具备认知等能力的自动化系统只能以一种辅助工具的方式存在于人机系统中,最多以一般意义上的被动式、单向非分享式、非智能互补的形式存在,并且这种人机合作是相对低效的。
3.3 自主化人因学解决方案的问题空间
如前所讨论,自动化完全不具有基于机器智能的认知等能力,而自主化拥有基于机器智能的认知等能力,自主化的程度取决于基于机器智能的认知等能力水平,可见自动化与自主化之间是正交的关系。另外,人因学的理念是以人为中心的设计,研究的对象是人机关系,人因学重点关心在操作条件下人类操作员与机器的关系。在自主化和自动化的操作领域中,人因学视人类操作员的人工干预是人机系统安全的极其重要的保证,是自主化和自动化系统在应急操作场景中最后的安全保障。人工干预与自主化和自动化程度之间分别存在着一对一的关系,即随着自主化和自动化程度的提高,人工干预的需求随之减少,可见,人工干预是以上两个平面(即人工干预×自主化,人工干预×自动化)所共有的一个维度。因此,自主化、自动化、人工干预三个变量可以用来表征三者之间的一个三维空间关系。
图1示意了自主化、自动化与人工干预三者之间关系的一个三维空间概念模型。如图1所示,A点代表一个完全需要人工操作而没有任何自动化和自主化能力的系统;B点代表一个具有针对特定场景的全自动化功能、没有任何自主化能力,但是仍然需要人工干预的系统;C点代表未来理想的全自主化系统,工程技术上有可能实现不需要人工干预,但是人因学强调人类操作员应该是系统的最终决策控制者,所以需要必要的人工干预。平面ABO示意了具有不同自动化水平但没有自主化的系统(即没有任何基于机器智能的认知能力的自动化系统)。随着自动化水平的提高,人工干预减少,但即使系统达到完全自动化(B点),也仍然需要一定程度的人工干预,这是由自动化系统的特征所决定的(见表1)。平面ACO示意了具有不同自主化程度的系统,但没有自动化的系统(在现实中不存在),所以该界面是开环边界,随着自主化程度的提高,人工干预的需求下降至全自主化(C点),并且保留一定程度上的人工干预来保证人对系统的最终控制权。
图1 自主化、自动化与人工干预三者之间关系的概念模型
重要的是,在图1的概念模型中,介于四个平面(ABC,ABO,ACO和BCO)之间的三维空间。在实现全自主化之前,半自主化系统一般都拥有相当程度的自动化技术,正如“高等级自动驾驶车不仅仅是自动的,更应该是自主的”(李德毅,2019)。自动化的操作以及半自主化系统的操作都需要不同程度的人工干预,在各种操作条件下,人-自动化交互和人-自主化交互在这个三维空间内共存。
总结以上的讨论以及表1和图1,可以得到以下三点:
(1)半自主化系统与自动化系统类似,需要人工监控和干预,人与半自主化之间存在交互,在实现全自主化之前,人-半自主化交互(本文以下简称人-自主化交互)必然长期存在,如同自动化人因学问题一样,人-自主化交互中的人因学问题也将长期存在。
(2)人-自动化交互伴随人-自主化交互,共存于一个问题空间,如同半自主化系统中一定有自动化技术的支撑。这意味着半自主化系统可能遇到与人-自动化交互中类似的人因学问题,以往丰富的人-自动化交互人因学研究成果可能有助于解决人-自主化交互中的部分人因学问题。
(3)人-自主化交互与人-自主化组队(HAT)互为包容,共存于同一个问题空间中,因为HAT合作需要人-自主化交互的支持,而人-自主化之间的“交互”是为了人机之间的有效合作。比如,人机之间通过双向信任和分享SA等的人机组队合作需要有效的人-自主化交互的支持(例如,人机界面上的信息交互,人类操作员在应急状态下通过有效的人工干预接管系统的操控等)。
因此,图1所示意的三维空间包括了人-自动化交互、人-自主化交互、人-自主化组队,这个三维空间表征了自主化人因学的问题空间,也正是目前人因学面临的挑战和机遇所在。作为人因学学科理念的“以人为中心的设计”应该就是在这个问题空间内探寻人因学解决方案过程中应该遵循的理念。
3.4 自主化人因学解决方案的理念:以人为中心的设计
在历史上,许多自动化系统的研发最初是按照以技术为中心的途径进行,然后因为人因学的干预而逐渐转向以人为中心的设计。一个典型的例子就是现代大型民用飞机驾驶舱的自动化飞行系统,它的发展从一开始就是以技术为导向,而并非遵循以人(飞行员)为中心的人因学理念,导致自动驾驶系统人机界面上过分复杂的自动化模式和控制方式设计等人因学问题。当自动化系统带来系统可靠性、操作准确性、飞行员体力工作负荷、经济效益和安全等方面益处的同时,也带来产生人为差错的隐患,直接或间接地导致了一些重大飞机解体事故的发生(Billings,1996;Xu,2007;许为,2014)。尽管航空人因学界一直在努力,但是受设计兼容性、飞行员培训成本、适航风险等因素的影响,这种以技术为导向的设计给后续新机型人机界面设计的改进带来许多挑战。这是人因学对自动化技术干预所受到挑战的一个典型案例。
如前面所讨论,今天我们面对新一波的自主化技术,首先是一系列半自主化系统。从以人为中心设计的理念出发,根据自动化人因学研究的成果和教训,半自主化系统的设计必须通过有效的人机交互设计,在所定义的特定场景和任务操作环境中始终保证人类操作员的“人在闭环中”(in-the-loop)状态,从而确保人类操作员拥有较高的SA和参与度,能够在任何时候对系统进行人工干预。在工程技术上,即使能够实现半自主化系统的非人工干预手段,以人为中心设计理念强调在任何时候人类操作员都应该能够进行有效的人工干预。基于近几年多起自动驾驶车致命事故的教训(NTSB,2017;Endsley,2018),这是人因学对人的生命和系统安全的承诺,是人因学对AI、工程技术界的呼吁。
尽管目前全自主化系统在现实中并不存在,以人为中心设计的理念强调,如果将来某一天实现了全自主化系统,并且工程上可以实现非人工干预手段,系统设计仍然必须保证,作为系统的最终决策操控者的人类操作员在任何时候都可以实现有效的人工干预。正如作者在上一篇系列文章《四论以用户为中心的设计:以人为中心的人工智能》中所提出的“以人为中心的AI”设计理念模型,该模型强调AI的下一个前沿不能仅仅是技术,它也必须是合乎道德伦理的、惠及人类的;AI是增强人类的能力而不是取代人(许为,2019b)。已有多名知名科学家和高科技企业家(包括史蒂芬·霍金、伊隆·马斯克等)通过发表公开信表达了对未来智能系统可能伤害人类(甚至毁灭人类)的极大担忧(Russell,et al.2015)。以人为中心设计的理念强调人应该是在任何条件下、任何时候、对任何智能系统(包括全自主化系统)最终的决策控制者(见表1)。
从人-自主化组队的新型人机合作关系的角度来看,在人机两个认知代理之间双向的、分享的、主动的、智能互补的合作关系中,以人为中心设计的理念同样要求保证人类操作员在任何时候具有对系统的最终决策操纵权。只不过这种设计理念在人-自主化组队情境下的实现更加智能化,更加体现出人机两个认知代理之间的无缝合作,从而大大提高人机系统整体的可靠性和安全性。例如,在未来单人操纵的大型智能化民用飞机驾驶舱中,在正常操作状态下,自主化系统操纵飞行,人-自主化系统之间的双向信任、共享的SA等可以保证系统的最终控制权始终在人类操作员的手中,比如在应急状态下,自主化系统将系统操控权快速有效地交付给人类操作员。当人类操作员处于失能状态(即丧失认知和操控能力)时,自主化系统通过情景模型能够迅速查询到人类操作员的当前状态(包括认知、生理和行为等),基于人-自主化组队合作过程中已经建立起的人机双向信任,分享的操作任务、意图和目的,自主化系统可以迅速有效地掌控系统的最终操控权,将损失降到最低的程度(例如,寻找安全的着陆地点,或者启动针对特殊飞机的弹射离舱救生系统)。这种人机之间机器最终操控权的分配转移是建立在人机之间优先权分配、系统备份设计、人机之间双向信任、双向SA、分享的任务意图等人-自主化组队合作的基础上所产生的对系统操控权的分享。这是一种升级版的以人为中心设计理念在人-自主化组队情境下的有效实现。
因此,以人为中心设计的理念提醒人们从自动化系统设计的演化进程中吸取历史教训,希望人因学在社会进入一个自主化技术世界的初期,旗帜鲜明地表明自己的学科理念和立场,与AI、工程技术界密切合作,尽最大努力去影响自主化系统的研发。
4 人-自主化组队的人因学研究
4.1 人-自主化组队人因学研究的思路
作为一种新的研究对象,HAT需要借助成熟的研究理论和框架,有研究者推崇人-人团队的理论(Madhavan & Wiegmann,2007;de Visser,2018)。人-人团队理论为HAT人因学研究提供的启示是要考虑类似于人-人团队合作的一些关键特征:人与自主化认知代理之间的沟通、协调和合作等(Salas,et al.,2005);人与自主化认知代理之间共享的心理模型、双向绩效监测、团队适应性、团队领导力、信任修复以及校准(Mosier,et al.,2017)。
其他一些理论框架也为HAT研究提供了工作思路。借用协同认知系统(Joint Cognitive Systems)的概念(Hollnagel & Woods,2005),HAT中的人类操作员和自主化认知代理可被认为是同一认知协同系统中两个合作的认知代理,人类的生物智能(认知信息加工能力)与机器智能(由AI等技术实现)通过深度整合和两个认知代理之间的协作实现了智能互补。从弹性工程(Resilience Engineering)的角度(Woods,et al.,2012),HAT需要一种能够主动预测和处理错误的弹性工程方法,HAT必须不断适应操作场景,其成功取决于两个队友在预测和管理潜在风险的能力,当失败时,积极修复信任应该是HAT和自主化设计的基本要求之一(de Visser,et al.,2018))。最后,交互式团队认知(ITC)理论强调在团队认知活动中在团队层面上开展针对团队工作效率的测量和建模工作(Cooke,et al.,2013)。
针对HAT的人因学研究,目前主要集中在概念层面和工作思路等方面。研究者开始在航空航天(Kistan,et al.,2018;Brandt,et al.,2018)、军事(Calhoun,et al.,2018)以及自动驾驶车(de Visser et al.,2018;Navarro,2018)等领域内探索HAT的应用。从研究思路上来说,人-人团队理论是目前HAT人因学研究的主要框架。根据人-人团队理论,研究者为HAT的人因学研究制定了一些基本原则:双向的(沟通、信任等)、共享的(目标、情境意识、语言、意图、决策、自主化控制等)、协商的责任以及可控的工作负荷等(Madni & Madni,2018;Shively,et al.,2018;Ho,et al.,2017)。本节以下的内容主要基于人-人团队理论的框架,重点总结三个方面的研究。
4.2 人-自主化组队的人因学研究
4.2.1 人机共享的情景意识
不同于以往人类操作员个体针对自动化系统和操作环境的单向式情景意识(SA),HAT的SA是双向分享式的团队SA,人因学可以借助人-人团队SA模型来开展研究(Endsley & Jones,2001)。从Endsley(1995)的SA三水平信息加工模型出发:在感知阶段,人类操作员和自主化认知代理都需要了解对方的状态,分享与任务、行动、目标分配优先权等相关信息的感知;在理解阶段,人类操作员要理解自身作业以及对自主化作业的影响,自主化认知代理同样如此,并且相互共享对任务、环境、系统等信息的理解;在预测阶段,两者协同定义工作的策略和预测可能的行动。
在航空领域应用中,飞行员与未来智能驾驶舱中的自主化系统之间应该高度共享SA,确保两者之间协调功能分配、目标调整和行动方案,例如,目前正在处于概念研究阶段的未来民用飞机单人操纵智能化驾驶舱(Bailey,et al.,2018)。在高等级自动驾驶车中,驾驶员与自主驾驶系统共享的SA信息应该包括当前驾驶轨迹、彼此的能力、各种与评估和计划行动相关的信息(比如目标,优先级)等(Endsley,2017)。有研究从人机交互透明度的角度来寻找如何利用共享SA帮助构建有效的HAT,例如,Chen et al.(2017)提出了基于HAT中SA分享的代理透明度模型(SAT),来达到满足双向透明度的团队合作范式的需要。
开展HAT团队共享SA的研究具有一些挑战。以往人因学的SA研究大多集中在针对个体SA方面,针对人-人团队SA的研究已引起关注,不仅取决于团队每个成员的SA水平,同时更依赖于成员之间共享的SA水平,但是团队SA测量仍未完全解决(孙向红等,2011)。共享SA是团队成员拥有相同的并且有助于跨角色作决策所需的SA(Endsley & Jones,2001),针对HAT团队共享SA的研究更有待于开展。在应用中,自主化代理在技术上可以通过传感器所输入的信息源和计算模型得到针对人类操作员、系统本身以及环境的SA,该模型化的SA可能与人类操作员的SA不同,会导致双方对决策所需的SA信息有不同的评估,因此人类操作员和自主化认知代理之间的SA模型需要有效的双向沟通。在复杂操作环境中,为确保高效的HAT,今后的研究需要开发针对自主化系统的情境模型(Endsley,2015)。
4.2.2 人机双向的信任
如同人-人团队的合作,信任是HAT合作的基本特征之一。在人-自动化交互中,信任只是人针对自动化的单向信任,大量的人因学研究已经清楚表明操作员对自动化的过度信任(自满)或者缺乏信任都会影响人机绩效(例如,Parasuraman & Riley,1997)。在HAT中,两个认知代理(人类操作员与自主化)之间的信任是双向的,两者之间是否保持对对方适当的信任水平会直接影响HAT的团队绩效。例如,在未来空中智能交通指挥系统中,交通管制员与自主指挥系统之间维持适当的信任有助于两者之间有效地协调管理(Kistan,et al.,2018)。作为人机交互设计的方案之一,将人类操作员保持“人在闭环中”状态的设计就是维持自主化系统对人类操作员信任的一种手段。例如,在自动驾驶车运行中,如果驾驶员双手离开方向盘,自主化系统可以认为目前驾驶员在监管上是不可信任的,打破了人机组队合作的信任,从而系统应该主动地启动某种人机交互方式(比如多模态的告警信号)将驾驶员拉回“人在闭环中”的信任状态。
除了人-人信任中常遇到的因素(比如,完整性、可预测性和不确定性)以外,自主化认知代理面临一些基于AI的机器智能体所共有的问题,包括缺乏类似人的“思考”、缺乏透明度、无法解释其推理决策过程等(许为,2019b)。另外,机器智能体也缺乏心理模型、价值观和信仰来激励自我(Marquez,et al.,2013)。这些特殊因素给人-自主化信任的研究和应用带来了一些新的考虑。
Kistan,et al.(2018)认为HAT双向信任的人因学研究应该着重考虑信任测量、建模、修复以及校正。从系统设计角度来说,人机界面透明度、可解释性和可理解性有利于人-自主化信任的建立,比如,系统应该有足够的透明度来支持和促进信任校准(Chen & Barnes,2014;Mercado et al.2016),而Chen et al.(2017)认为他们提出的代理透明度模型(SAT)可用作为一个校准团队信任和促进共同理解的有效工具。但是需要多少透明度和传达哪些信息需要进一步研究(Pelegrini Morita et al.,2014)。de Visser et al.(2018)认为发生错误后积极开展信任修复应该是HAT设计的基本问题,并提出了一些选择信任修复的策略。
已有研究者针对自动驾驶车中的信任修复展开了初步研究。de Visser et al.(2018)建议在司机-自主驾驶系统交互中,当系统失败时(比如,选择非最佳的路线),简单地向司机通知或解释可能无法修复信任,需要采取一定的行为措施。Kohn et al.(2018)设法了解人们如何看待自动驾驶汽车所犯的错误以及合适的信任修复类型。该研究发现在HAT中人机之间的道歉行为在修复信任方面比一些否认式行为更有效,一个具有信任修复能力的自主化系统应该能够维护和修复HAT的合作伙伴关系,这方面的问题需要进一步的研究。
4.2.3 人机共享的自主化系统控制权
自主化系统控制权的选择和共享有助于构建有效的HAT和保障人机系统的安全。目前还没有自主化系统可以在所有条件下完美地工作,灵活的自主化系统控制权分配将允许任务、功能和整个系统(比如,车辆的控制)的控制在人类操作员和自主化认知代理之间分享(接管或交付)。控制权转移取决于双方的信任、共享SA、风险、需求以及合作关系等因素。在应用中,需要保证“人在闭环中”的设计和人类操作员掌握系统最终控制权。在特殊情况下(例如,人类操作员失去意识),通过监测人类操作员的认知、生理状态等,必要时自主认知代理需要快速有效地接管系统的控制权(Endsley,2015)。
针对人机共享的自主化系统控制权的人因学研究尚处在概念阶段。在自动驾驶车研究领域,美国MIT的自主车研究项目提出了以人为中心的自主车(HCAV)共享自主化研发范式(Fridman,2018)。HCAV项目认为自主化系统控制权不是一个单独的机制,需要人机之间的合作(HAT),包括互相分享的SA、信任等的支持。其中,分享的SA由HCAV的“驾驶员感知”功能实现,“驾驶员感知”采用多模态的测量来评估驾驶员的身体功能特征(包括分心、疲劳、认知、情绪状态等);分享的信任是通过算法对外部环境的建模产生风险评估,然后视觉化地呈现给人类驾驶员。HCAV通过人机合作、分享的SA、风险评估等方法,保证车辆控制权在人机之间的有效过渡,自主化系统负责绝大部分的操作,驾驶员承担对车辆的最终的控制权。该研究估计将HCAV的共享控制权方法用在装备特斯拉Autopilot(L2等级)的自动驾驶车上,可将目前较低的Autopilot(自动驾驶)平均使用率从约占总里程的30%提高到50%以上。
人们还试图寻找其他有效的方法来实现人机之间自主化系统控制权共享的途径,例如,自适应控制的方法。Muslim & Itoh(2018)遵循以人为中心的理念对自动驾驶车研发提出由自适应控制来共享车辆控制权的方法,并且定义了人机之间动态切换控制权限的自适应转换策略。该策略保证人类操作员拥有对系统的最终权限,从原理上提出了如何以及何时可以在人机之间转换控制的建议。Madni & Madni(2018)认为自适应的HAT需要解决协同人机绩效、SA共享、人机知识共享、动态任务分配以及人机决策共享等问题,提出了一个用于航空领域的自适应HAT架构。
4.3 人-自主化组队人因学研究的展望
HAT研究需要跨学科的合作和方法,包括AI、计算科学以及认知学科等领域(McNeese,et al,2019)。在前面有关HAT人因学研究讨论的基础上,展望今后HAT人因学研究总的工作思路。
首先,开展针对基于HAT的新型人机合作的人因学基本问题研究。例如,如何更好地理解HCI与HAT的区别;如何有效定义和设计智能系统中动态化人机功能分配来支持HAT;在HAT中,人-自主化交互与HAT之间的关系,人-自主化交互和组队合作的优化组合受哪些因素影响;自主化程度对HAT合作和团队绩效的影响;如何构造可解释和可协商的自主化系统;人机之间决策权的分配;人机之间知识的获取和管理,例如,机器需要什么样的人类行为表征(比如隐性知识)才能有效地理解人类操作员的意图。
开展对HAT中一些重要因素的量化研究。例如,在人-人团队信任研究的基础上,如何确定和量化HAT中双方之间动态功能交换所需的信任程度;以往许多研究集中在个体SA,近年来已有针对团队SA以及测量的研究,但是大多集中在人-人团队场景中。针对HAT的共享SA,未来的研究要针对HAT建立有效的方法来评估和量化共享SA(Endsley,2017a)。另外,Sheridan(2019)将三种现有模型扩展到自动化信任的量化分析,这种方法或许给HAT的量化信任研究提供了一种工作思路。
开展HAT的人因学计算建模研究。例如,通过生物识别技术(视觉追踪,人脸识别,脑电图信号等)的有效指标来测量人类操作员状态(认知工作负荷,疲劳和情绪状态等),建立自主认知代理对人类操作员的行为评估模型(Madni & Madni,2018)。今后人因学的一项重要工作是基于以往人类SA的研究,为自主认知代理的机器情境模型定义认知架构,从而支持创建HAT的共享SA(Endsley,2015)。此外,这种模型还需要评估在特定操作条件下人类能力的局限性,有助于确定何时以及在何种程度上系统的操控权应该在两者之间动态地分配转换。
开展HAT中人机交互的研究。首先解决自主化系统中人机交互的基本问题,包括可解释和可理解的HAT人机界面等(许为,2019b)。针对HAT的人机合作特征,考虑基于任务场景的动态化人机界面设计,比如,在高等级自动驾驶车中,针对正常状态下(自主化系统控制)与应急状态下(人类操作员人工接管)的两种场景,研究如何提供有效的、多模态、余度化和差异化的人机交互设计,贯彻以人为中心的设计理念,从而保证“人在闭环中”和充分的SA。另外,开展复杂领域中HAT的人机交互研究,例如,Calhoun,et al.(2018)针对未来单人操作员与多个自主代理(空中,地面和海面多场景)组成的全领域HAT应用,采用生态界面设计(EID)方法(Vicente & Rasmussen,1992),构造全域多场景、人机双向沟通的HAT人机界面设计。
开展HAT中人机共享的自主化系统控制权的研究。研究如何提供适当程度的自主化选择来支持人机之间的接管或交付;自主化认知代理是否、如何以及何时可以接管或者将功能切换到人类操作员。例如,空中交通管制员与未来自主交通管制系统如何在两者之间动态地交换功能,可否依据团队中人和机器的可信度,将权限与“获得的信任级别”相匹配,然后执行适当的切换控制(Kistan,et al.,2018)。自主化系统控制权的分配和转移取决于众多因素,包括围绕HAT的一系列研究问题,有待于今后系统化的人因学研究。
最后,除了采用人-人团队理论的框架来开展HAT的研究,同时也要采用协同认知系统、弹性工程、交互式团队认知等理论框架,多方面开展HAT的人因学研究。例如,根据协同认知系统理论,如何利用人类的生物智能和机器智能在不同程度上的深度组合以及互补来支持基于人机组队合作的自主化系统创新设计。
5 自主化人因学解决方案的个案分析:自动驾驶车
自动驾驶车是目前基于AI等智能技术的一个典型的自主化系统产品,而且受到各方面的关注。与此同时,近几年也发生了一些安全事故(NTSB,2017;Endsley,2018),人因学问题、安全和对大众心理的影响等因素没有引起足够的重视(Hancock,2017,2019;Endsley,2019a;Salmon,2019)。基于以上针对自主化人因学解决方案的讨论和分析,本节进一步集中讨论自动驾驶车研发中人因学的解决方案。由于人因学在自动驾驶车研发中的应用尚未全面展开,本文讨论初步的工作思路。其中,以人为中心的设计是人因学在自动驾驶车研发中的设计理念,各方面的工作都是围绕这个理念展开。
首先,要充分评估自动驾驶车的自主化技术对驾驶员操作角色、心理期望和操作行为等的影响。不同于传统汽车的操作作业,自动驾驶车驾驶员从事多重作业,包括驾驶、监控操作以及可能的非驾驶作业(手机或车载娱乐系统等)。从安全角度来说,现有自动驾驶技术要求驾驶员时刻处于监控状态(比如,特斯拉L2等级的Autopilot要求驾驶员双手放在方向盘上),随时准备接管手动驾驶,然而驾驶员行为受他们对自动驾驶车的信任、期望等因素的影响。有些制造商似乎高估了当前自动驾驶车自主化的性能,低估了人因学问题的严重性,他们所发布的一些容易引起混淆的市场信息,会导致一些消费者对自动驾驶车的不恰当期望和操作行为。近几年发生的多起自动驾驶车致命事故的调查结果揭示了类似的人因学问题:过度信任,参与度低以及注意力不集中,导致未能在紧急情况下快速接管驾驶(NHTSA,2017;Endsley,2018)。
人因学要积极参与自动驾驶车的研发。首先,在研发策略上,应该提倡渐进稳重的研发策略,优先研发适合于特定场景、自主化技术可行、安全的以及大众可接受的L3等级的自动驾驶功能,然后逐步拓展到其他场景以及L4等级。其次,在研发流程方面,人因学需要尽早介入研发的早期阶段,贯彻“以人为中心的设计”理念,将人(包括驾驶员、乘客以及行人)的需要和安全贯穿于研发的各个环节(Hancock,2017)。再则,在人机交互设计中,参照现有的自动驾驶车人机交互设计指南(HFES,2018)和人因学的专家建议(Endsley,2017a,2017b),通过有效的人因学设计来解决“人在闭环外”、低参与度和低SA等问题(Navarro,2018)。最后,从应用和设计范式上,在高等级自动驾驶车中,需要从HAT合作的角度来考虑人机交互以及人机界面的设计。
在人因学的应用中,要尽量消除潜在的安全隐患对安全设计的影响。已有研究者质疑SAE(2018)J3016条例对自动驾驶等级的分类没有充分考虑以人为中心的设计理念(Hancock,2019)。从设计需求、可靠性、度量方法、安全管理和标准化等方面来说,SAE J3016条例对自动驾驶等级的分类是不严格的。SAE J3016条例认为当自动驾驶车装备高等级(L4-L5)自动驾驶功能运行时,不需要驾驶员监控和人工干预,人因学认为这种定义(至少对L4等级的自动驾驶功能)可能留下了安全的隐患,对车辆的安全设计和操作有误导作用。人因学需要通过有效的人因学实验来获取足够的实证数据,帮助完善自动驾驶等级的分类、符合安全的系统需求以及自动驾驶技术的认证标准等。
在人因学研究方面,采纳HAT的研究范式开展对高等级的自动驾驶车人因学研究。SAE J3016条例中对自动化和自主化之间的区别是比较含糊不清的,可能会导致设计中对HAT新型人机合作关系、自主化人因学问题的忽略。借助于HAT的新型研究范式,人因学研究需要能够超越对自动化研究的思维方式,为自主化技术提供全面的人因学解决方案。李德毅(2019)将自动驾驶车形容为“一个会学习的轮式机器人”,建议开发一个物化驾驶员在线认知的智能代理(驾驶脑)。另外,以人为中心的自主车设计理念也为自动驾驶车的自主化人因学研究提供了一个工作思路(Fridman,2018;Muslim & Itoh,2018)。
最后,从宏观工效学的角度看,自动驾驶车的研发不仅仅是一个工程技术项目,它对整个社会产生广泛的影响,需要从社会技术系统大视野为自主化技术的应用做好全面的准备,包括自主化技术、设计标准、道路交通基础设施、法律、伦理、交通规则、智联网/5G、企业投资回报、大众信任度和接受度、驾驶员技能以及自动驾驶车技术认证等。因此,开发安全的、技术可行的、大众信任和接受的自动驾驶车是一个系统工程,需要多学科以及跨部门(企业、政府、科研单位等)的通力合作。
6 总结与展望
(1)基于AI的智能技术促进了自主化技术的应用,自主化表现出与自动化不同的人因学特征。人-自主化(半自主化)交互将长期存在,人-自主化交互中出现的一些人因学问题类似于人-自动化交互,利用以往人-自动化交互人因学研究的成果有助于解决一部分自主化人因学问题。本文通过建立一个自主化、自动化与人工干预三者之间关系的概念空间模型表征了自主化人因学的问题空间。
(2)不同于自动化,智能化技术的加入使得智能时代的人机关系发生了新的转变,带来了人与自主化系统两个队友之间的新型人机合作关系。智能时代这种新型人机合作关系必定带来对人因学研究和应用的新考虑,促使重新评估现有的人因学理论和方法,开展必要的人因学研究,从而能够为自主化技术的应用提供有效的人因学学科支持和完整的人因学解决方案。
(3)针对人-自主化组队(HAT)的人因学工作,需要采用有效的研究和应用范式。需要开展跨学科的协同合作,开展对智能时代新型人机合作关系的人因学基本问题(人-自主化双向信任、共享SA、共享的自主化系统控制权等)、HAT中一些重要因素的量化、针对HAT的人因学建模以及人机交互设计等方面的研究和应用。
(4)作为自主化技术的应用,自动驾驶车的研发正方兴未艾,人因学的初步研究和事故调查揭示了目前自动驾驶车设计中的一些人因学问题,人因学对当前自动驾驶车研发的学科作用和影响力远远不够。我们呼吁在自动驾驶车研发中要重视人因学问题,人因学界要主动融入自动驾驶车的研发,基于以人为中心的设计理念,从研发策略、流程整合、人机交互、设计范式、HAT研究以及社会技术系统等方面着手,充分发挥人因学的学科作用和影响力。
(5)自动化技术中人因学问题的出现到被人们充分认识经历了一个长期的过程,经典的“ironies of automation”现象在30多年后仍然没有得到彻底的解决。今天,随着AI等智能技术催生了新的自主化技术,在当前的社会技术系统大环境中,我们又遇到了一个新的“irony”,需要跨学科的协同合作去迎接和克服新的挑战,人因学任重而道远。